May-akda: Boxu Li
Noong inilunsad ang Macaron AI noong Agosto 2025, hindi ito nagposisyon bilang isa pang enterprise assistant kundi bilang isang personal na kasama na dinisenyo upang pagyamanin ang pang-araw-araw na buhay. Ang misyon nito ay likas na internasyonal: mula sa simula, sinusuportahan ng platform ang Ingles, Tsino, Hapon, Koreano, at Espanyol, na nagpapahiwatig ng ambisyon na mag-operate sa mga hangganan ng wika at kultura. Para sa mga gumagamit sa Japan at South Korea – dalawang bansa na may masigla ngunit magkakaibang digital ecosystems – ang multilingguwal na pangakong ito ay higit pa sa isang marketing slogan. Nagbubukas ito ng mga teknikal na tanong: Paano hinaharap ng Macaron ang mga cross-lingual na pag-uusap? Paano nakayanan ng memory system nito ang iba't ibang mga script, bokabularyo, at mga sanggunian sa kultura? Anong mga pagpipilian sa disenyo ang nagbibigay-daan sa isang ahente na "mag-isip" sa hiragana sa isang sandali at Hangul sa susunod? Ang blog na ito ay nagsusuri sa cross-lingual na arkitektura ng Macaron AI at ang mga mekanismo na nagpapahintulot dito na i-personalize ang mga karanasan para sa mga gumagamit ng Hapon at Koreano habang pinapanatili ang isang magkakaugnay na pagkakakilanlan.
Ang personalisasyon sa malawakang saklaw ay nangangailangan ng higit pa sa pagsasalin. Ang layunin ng Macaron ay ihulma kung sino ka sa pamamagitan ng pang-araw-araw na interaksyon, hindi lang sa alaala ng mga katotohanan kundi pati na rin sa mga detalye tulad ng mga layunin sa pagkain at emosyonal na mga tagumpay. Ang pag-abot nito para sa maraming wika ay nangangailangan ng mga istruktura ng datos at mga algoritmo na kayang hulihin ang kahulugan sa iba't ibang sistema ng pagsusulat, pamahalaan ang paglipat sa pagitan ng mga kodigo, at igalang ang mga kultural na pamantayan. Ang post na ito ay naglalatag ng mga pangunahing teknika: multilingual tokenization, reinforcement‑guided memory retrieval, distributed identity management, at cultural adaptation. Tatalakayin din namin ang mga hamon tulad ng pagkiling, pagkapribado at pagsunod sa mga pamantayan sa iba't ibang rehiyon, at ilalarawan ang mga direksyon ng pananaliksik para sa mga cross‑lingual personal agents.
Umaasa ang malalaking modelong pangwika sa mga tokenizer upang hatiin ang hilaw na teksto sa mga yunit na maaaring iproseso ng modelo. Para sa mga wika tulad ng Ingles at Espanyol, ang subword tokenization (Byte-Pair Encoding o SentencePiece) ay maaaring makuha ang morpolohiya nang maayos. Gayunpaman, ang Japanese at Korean ay nagdudulot ng mga natatanging hamon. Ang Japanese ay gumagamit ng tatlong script (kanji, hiragana at katakana) at kulang sa mga espasyo, habang ang Hangul ng Korean ay isang tampok na alpabeto na binubuo sa mga bloke ng pantig. Dahil dito, ang mga inhinyero ng Macaron ay bumuo ng isang multilinggwal na bokabularyo na may mga script-aware subword units. Ang bawat token ay naglalaman hindi lamang ng mga karakter kundi pati na rin ng isang language identifier, na nagpapahintulot sa modelo na makilala ang mga homographs (hal., ang "ha" ay maaaring isang phoneme ng Korean o ang particle na "は" ng Japanese). Kasama sa bokabularyo ang mga token para sa mga karaniwang kombinasyon ng kanji, radicals, at Hangul jamo, na nagpapahintulot sa modelo na kumatawan sa mga yunit ng morpolohiya nang mahusay at hatiin ang mga bihirang salita sa makabuluhang bahagi.
Sa pamamagitan ng pagbabahagi ng mga subword unit sa iba't ibang wika, ginagamit ng Macaron ang cross-lingual transfer. Halimbawa, ang konsepto ng 「pag-aaral」 ay lumilitaw sa Hapon bilang 勉強 (benkyō) at sa Korean bilang 공부 (gongbu). Bagama't magkaiba ang mga karakter at tunog, ginagamit ng ahente ang semantic embeddings na natutunan sa iba't ibang wika upang i-map ang mga token na ito sa magkatulad na vector space. Ang pinag-isang representasyon na ito ay nagpapahintulot sa Macaron na maunawaan ang interes ng isang gumagamit na Hapones sa 「pag-aaral ng wika」 at kalaunan ay maiaaplay ang kaalamang iyon kapag ang isang kaibigang Koreano ay nagtanong tungkol sa 「공부 계획」 (iskedyul ng pag-aaral). Kung wala ang isang pinag-isang bokabularyo, ituturing ng modelo ang mga ito bilang hindi magkaugnay na mga konsepto.
Ang 671-bilyong-parameter na modelo ng Macaron ay sinanay sa isang malaking multilinggwal na korpus, ngunit ang haba ng mga pag-uusap ay nangangailangan ng isang mahusay na context window. Ang mga pangungusap sa Hapon at Koreano ay maaaring mas mahaba kaysa sa Ingles dahil sa aglutinatibong kalikasan ng mga pandiwa at nakapaloob na mga particle. Upang suportahan ang mahabang dayalogo, gumagamit ang Macaron ng isang hierarchical attention na mekanismo: ang modelo ay nagpoproseso ng mga lokal na window (mga pangungusap o talata) bago ipasa ang mga summarized na representasyon sa isang global na layer. Ang pamamaraang ito ay nagpapababa sa memory footprint habang pinapanatili ang konteksto ng ahente sa mga pinalawig na pag-uusap. Sinusuportahan din nito ang cross-script alignment, kung saan natututo ang modelo ng mga kaugnayan sa pagitan ng mga segment sa Hapon at Koreano sa pamamagitan ng pagpapaliit ng distansya ng kanilang mga representasyon habang nagsasanay (isang teknik na hiniram mula sa cross-lingual natural language processing).
Madalas na ihalo ng mga gumagamit na Hapones at Koreano ang mga salitang Ingles o Tsino sa kanilang mga pag-uusap, lalo na sa mga teknikal na larangan o pop culture. Kasama sa inference pipeline ng Macaron ang isang runtime na detektor ng wika na nagtatag ng bawat papasok na pahayag na may mga probability score para sa mga suportadong wika. Kapag ang isang pangungusap ay may kasamang mga hiram na salita o parirala mula sa maraming wika, hinahati ng ahente ang input sa mga segment at pinoproseso ang bawat isa sa naaangkop na konteksto ng wika. Tinitiyak nito ang tamang pagbigkas sa voice output at tamang paghawak ng mga idyoma. Inilalagay ng memory subsystem ang mga tag ng wika sa mga narekober na entry, na nagpapahintulot sa Macaron na makuha ang mga nauugnay na karanasan kahit na ang wika ng query ay iba sa nakaimbak na wika.

Ang pangunahing inobasyon ng Macaron ay ang memory token, isang dynamic pointer na tumutulong sa ahente na magdesisyon kung ano ang dapat tandaan, kailan i-update ang memorya, at paano gamitin ang mga alaala sa kasalukuyang mga gawain. Ang token ay nakikipag-ugnayan sa isang hierarchical memory bank: maikling-panahong konteksto, panggitnang-panahong episodic memory, at pangmatagalang kaalaman. Ang reinforcement learning (RL) ay nagsasanay sa ahente na i-adjust ang token batay sa feedback tulad ng kasiyahan ng gumagamit at tagumpay ng gawain. Kung ang isang Japanese na gumagamit ay paulit-ulit na nagtatanong tungkol sa parehong iskedyul ng tren, natututo ang RL policy na i-promote ang mga detalye sa memorya. Kung ang isang Korean na gumagamit ay nagpapahayag ng hindi komportable kapag ang mga nakaraang komento ay muling lumitaw, natututo ang policy na pabilisin ang paglimot ng mga reference.
Ang koponan ng Macaron ay tinatanggihan ang konsepto ng isang monolitikong user profile; sa halip, ang pagkakakilanlan ay itinuturing na isang lumalabas na kuwento na binubuo mula sa maliliit na interaksyon. Ang mga alaala ay nakaayos ayon sa mga hangganan ng domain (hal., trabaho, libangan, pamilya) gamit ang isang mekanismo ng federasyon ng kaugnayan na nagpapahintulot ng cross-domain na pagkuha. Para sa mga gumagamit na Hapones at Koreano, ang mga hangganan ng domain ay kinabibilangan din ng mga domain ng wika: ang isang item ng alaala ay maaaring may tag na "Japanese—libangan—musika" o "Korean—pamilya—pinansya". Kapag ang ahente ay nakatanggap ng isang tanong sa Koreano, una itong naghahanap sa mga alaala sa Koreano ngunit maaaring mag-federate sa mga alaala sa Hapones kung tumutugma ang nilalaman sa semantiko. Pinipigilan nito ang cross-contamination habang pinapagana ang cross-lingual na pagpapatuloy.
Ang mga alaala na bihirang ma-access ay nagiging luma sa paglipas ng panahon; ang bilis ng pagkabulok ay maaaring mag-iba sa iba't ibang larangan. Ang mekanismo ng reference decay ay nagpapababa ng timbang ng mga hindi nagagamit na alaala, tinitiyak na ang panandaliang interes ng isang Hapon sa isang Koreanong drama ay hindi permanenteng sumasakop sa espasyo ng alaala. Sinusuportahan din ng pagkabulok ang privacy; ang sensitibong impormasyon tungkol sa pamilya o pananalapi ay maaaring itakda na mas mabilis mawala. Maaaring malinaw na tanggalin ng mga user ang mga alaala o markahan ito bilang kumpidensyal. Ang policy binding na balangkas ng Macaron ay naglalakip ng mga machine-readable na panuntunan sa privacy direkta sa data, upang ang isang alaala na may tag na "pribado—Korean" ay maaaring ma-access lamang sa mga otentikadong sesyon sa wikang iyon. Pinagsama sa differentiated transparency, na nag-aalok ng iba't ibang antas ng pagbubunyag sa iba't ibang mga stakeholder, pinapayagan ng mga mekanismong ito ang Macaron na mag-navigate sa mga pamantayan ng privacy ng Japan at umuusbong na mga regulasyon ng AI ng Korea.
Pagkatapos mag-sign up, kumukumpleto ang mga user ng tatlong personality tests na tumutulong sa Macaron na i-match sila sa isang personalized na persona – kabilang ang mga kulay, istilo ng komunikasyon at boses. Sa Japan, kung saan pinahahalagahan ang aesthetic harmony at pormalidad, maaaring bigyang-diin ng mga pagsusulit ang social etiquette, habang ang mga Korean na talatanungan ay maaaring tumuon sa dynamics ng pamilya at relasyon sa mga kaibigan. Ang nagreresultang persona ay nakakaimpluwensya hindi lamang sa user interface kundi pati na rin sa antas ng paggalang ng ahente, tono at pagpili ng mga sangguniang kultural. Ang isang Japanese na persona ay maaaring mas gusto ang mga hindi direktang mungkahi ("Paano kung magplano ng picnic sa susunod na linggo?"), samantalang ang isang Korean na persona ay maaaring pahalagahan ang direktang pagpapalakas ng loob ("Magplano tayo ng family trip!").
Ang kakayahan ni Macaron na bumuo ng mga mini-apps sa kahilingan ay hindi limitado sa mga pangkaraniwang productivity tools. Ang plataporma ay maaaring lumikha ng mga natatanging aplikasyon na may higit sa 100,000 linya ng kodigo, tulad ng isang budgeting tool na inspirasyon ng tradisyon ng kakeibo ng Japan (isang paraan ng accounting ng sambahayan) o isang Korean hojikwan planning app (pamamahala ng mga kaganapan ng pamilya at mga memorial ng ninuno). Ang user ay simpleng maglalarawan ng kanilang mga pangangailangan sa natural na wika, at ang ahente ay bumubuo ng isang programa na nakaangkop sa lokal na kaugalian. Ito ay nangangailangan ng isang library ng mga template na pang-domain at ang kakayahang mag-integrate ng mga lokal na kalendaryo, pampublikong pista opisyal at mga regulasyon sa pananalapi. Ang reinforcement learning ay nagpapabuti sa proseso ng pagbuo sa pamamagitan ng pagsusuri ng kasiyahan ng user: kung madalas na inaayos ng mga Japanese user ang kakeibo app upang magdagdag ng mga kategorya tulad ng "omiyage" (souvenir) at "otsukuri" (buwanang kawanggawa), natututo ang generator na isama ang mga ito bilang default sa mga susunod na app.
Ang Japan at South Korea ay may magkaibang mga pamantayan sa pagpapahayag ng emosyon. Madalas na pinahahalagahan ng kulturang Hapon ang kababaang-loob at pagiging sensitibo sa konteksto, habang ang kulturang Koreano ay yumayakap sa masiglang pakikipag-ugnayan sa lipunan. Inaangkop ng Macaron ang istilo ng pagtugon nito ayon dito, batay sa pananaliksik sa digital personhood na nagbibigay-diin sa likas na pagbabago ng pagkakakilanlan at kapangyarihan ng gumagamit. Sa praktika, nangangahulugan ito na ang ahente ay maaaring gumamit ng pormal na anyo at hindi direktang pagsasalita kapag nakikipag-usap sa Hapon, at mas aktibong mungkahi naman kapag nakikipag-usap sa Koreano. Ang sistema ng memorya ay nagtatala ng feedback sa tono at adaptibong inaayos ang mga istilo ng pag-uusap. Ang mga pag-aangkop na ito ay hindi naka-hard-code ngunit lumilitaw sa pamamagitan ng RL: kung ang isang gumagamit ay patuloy na positibong tumutugon sa isang tiyak na istilo ng komunikasyon, ang signal na gantimpala ay nagpapalakas sa ugaling iyon.
Ang paggawa ng personal na ahente na kayang makipag-usap sa Japanese at Korean ay nangangailangan ng mataas na kalidad na datos. Kasama sa training corpus ng Macaron ang mga lisensyadong libro, artikulo sa balita, blog, transcript at nilalaman mula sa mga gumagamit sa lahat ng sinusuportahang wika. Ang datos ay nasasala para sa pagiging magalang, bias at saklaw ng domain. Ang pre‑training na yugto ay gumagamit ng masked language modeling at next‑token prediction sa pinagsamang multilingual na datos upang matutunan ang mga shared representations. Ang fine‑tuning ay nagpapakilala ng reinforcement learning mula sa feedback ng tao (RLHF): ang mga bilingual na tagapagsuri sa Tokyo at Seoul ay nagre-rate ng mga tugon para sa pagiging angkop sa kultura, na nagpapahintulot sa modelo na matutunan ang mga banayad na pahiwatig tulad ng kailan gagamitin ang honorifics o kailan magtatanong ng mga paliwanag na tanong. Ang karagdagang contrastive learning na mga layunin ay naghihikayat ng pagkakatugma sa pagitan ng mga semantically equivalent na parirala sa iba't ibang wika.
Ang memory bank ng Macaron ay nag-iimbak ng embeddings sa isang high-dimensional na vector space. Para sa bawat memory item, ang agent ay nagko-compute ng isang representasyon na kumukuha ng nilalaman at wika. Ang isang cross-lingual memory index ay gumagamit ng approximate nearest neighbour search upang makuha ang mga item anuman ang wika ng query. Halimbawa, kung ang isang Koreanong user ay magtanong ng "피자 만들기 레시피" (pizza recipe), maaaring makahanap ang agent ng Japanese memory tungkol sa "ピザの作り方" (paano gumawa ng pizza) dahil parehong malapit sa konsepto ng pizza ang kanilang embeddings. Sa oras ng retrieval, ang agent ay nagsasala ayon sa mga pahintulot ng user at pagkatapos ay kino-convert ang nakuha na memory sa paboritong wika ng user gamit ang built-in na tagasalin at tagapagsummarize. Pinapagana nito ang pagbabahagi ng kaalaman sa iba't ibang wika habang pinapanatili ang mga hangganan ng privacy.
Ang mga cross-lingual na modelo ay may panganib na ipalaganap ang mga pagkiling na nasa training data. Para sa Japan at Korea, kung saan ang mga gender role at hierarchy ng edad ay may mahalagang papel sa kultura, ang Macaron ay nagpatupad ng mga estratehiya para mabawasan ang bias. Sa panahon ng fine-tuning, ang gantimpala ng RL ay naglalaman ng mga parusa para sa mga tugon na nagpatibay ng mga stereotype o lumalabag sa lokal na mga norma (hal., pag-aakalang tanging mga babae lang ang humahawak ng pinansya ng bahay). Tinitiyak ng policy binding system na ang personal na datos ay hindi kailanman isinasalin sa ibang wika nang walang pahintulot ng gumagamit. Bukod pa rito, ang naiibang transparency ng Macaron ay nagbibigay-daan sa mga regulator na siyasatin ang kilos ng modelo sa iba't ibang antas ng detalye: Maaaring suriin ng mga awtoridad ng Hapon ang pangkalahatang mga pattern ng paggamit, habang ang mga regulator ng Korea ay maaaring mag-inspeksyon ng mga raw logs sa ilalim ng mahigpit na kumpidensyalidad.
Parehong may mga rehiyonal na diyalekto ang Hapon at Koreano. Sa Japan, ang diyalektong Kansai ay gumagamit ng ibang bokabularyo at intonasyon kumpara sa karaniwang pagsasalita sa Tokyo. Ang mga diyalekto ng Koreano tulad ng Jeolla at Gyeongsang ay may katulad na mga hamon. Maaaring maling makilala ng mga kasalukuyang tagapagtukoy ng wika ang mga input na diyalekto, na nagreresulta sa hindi akmang mga tugon. Ang hinaharap na trabaho ay maaaring isama ang mga embedding ng diyalekto na sinanay sa mga rehiyonal na korpora, na nagbibigay-daan sa ahente na tukuyin at tumugon sa angkop na diyalekto. Maaaring hilingin pa ng mga gumagamit kay Macaron na tularan ang isang partikular na punto, na maaaring maging kaakit-akit para sa mga laro ng role-playing o mga module ng pag-aaral ng wika.
Bagaman ang kasalukuyang modelo ay nagtutugma ng mga representasyon ng semantika sa iba't ibang wika, ang pangkaraniwang pag-unawa ay nahihirapan pa rin dahil sa mga kultural na puwang. Ang mga ekspresyon tulad ng "tsundoku" (積ん読, pagbili ng mga libro at hindi pagbabasa ng mga ito) o "빵셔틀" (bbang shuttle, isang salitang balbal para sa taong inaapi na bumili ng tinapay para sa iba) ay walang direktang katumbas sa Ingles. Ang pananaliksik sa cross‑lingual commonsense knowledge graphs ay makakatulong sa Macaron na maunawaan at maipaliwanag ang mga konseptong tukoy sa kultura. Ang pagsasama sa mga base ng kaalaman tulad ng ConceptNet o mga lokal na bersyon ng ATOMIC ay maaaring magbigay ng naka-istrukturang kultural na kaalaman na kumukumpleto sa istatistikal na pagkatuto ng LLM.
Ang AI Promotion Act sa Japan ay nagbibigay-diin sa transparency at isinasang-ayon ang pag-unlad ng AI sa umiiral na mga regulasyon, habang ang iminungkahing AI Framework Act ng Korea ay nagpapakilala ng mga obligasyon para sa pamamahala ng panganib at pangangasiwa ng tao. Dapat mag-navigate ang mga personal na ahente sa mga balangkas na ito habang iginagalang ang privacy ng gumagamit. Kailangan ng pananaliksik sa federated learning para mapanatili ang data ng gumagamit sa device, differential privacy upang maiwasan ang de-identification sa iba't ibang wika, at legal compliance engines na makapag-interpret ng regulatory text sa Japanese at Korean at maipareha ito sa mga patakaran na may kaugnayan sa batas.
Ang mga hinaharap na personal na ahente ay hindi malilimitahan sa teksto. Kasama sa bisyon ng Macaron ang pagkonekta sa mga IoT device, VR interface at wearables. Ang cross-modal na interaksyon ay nagdadala ng bagong kumplikado kapag nakikitungo sa maraming wika: ang isang gumagamit ng Hapon ay maaaring makipag-usap sa isang matalinong speaker sa Japanese habang nagbabasa ng mga Koreanong subtitle sa isang mixed reality headset. Ang pag-align ng audio, teksto at visual na data sa iba't ibang wika ay mangangailangan ng multimodal transformers na kayang magproseso ng pagsasalita, teksto at mga larawan nang sabay-sabay, pati na rin ang temporal synchronization sa pagitan ng mga modality.
Upang ipakita kung paano gumagana ang cross-lingual personalization sa praktika, isaalang-alang ang isang Japanese na gumagamit na nais matuto ng Korean at humingi kay Macaron na gumawa ng study app. Nagsisimula ang ahente sa pamamagitan ng pagtingin sa memorya ng gumagamit para sa mga nakaraang karanasan sa wika—marahil ay nag-aral sila ng Ingles, kaya't alam ng ahente na mas gusto nila ang mga visual aid at spaced repetition. Ang intent parser ay kumukuha ng mga slot tulad ng "target na wika: Korean," "source na wika: Japanese," "focus ng pag-aaral: grammar at vocabulary," at "oras araw-araw: 20 minuto." Ang program synthesis engine ng Macaron ay pagkatapos nagtipon ng mga module: isang morphological analyzer para sa Hangul, isang sentence segmentation module para sa Japanese subtitles, isang spaced-repetition scheduler, at isang quiz generator na nagsasama ng mga halimbawa mula sa mga interes ng gumagamit (hal., mga Korean dramas o lyrics ng J-pop).
Ang app na nagawa ay nagtatampok ng mga vocabulary card na may kasamang pagbigkas, mga halimbawa ng pangungusap, at mga tala tungkol sa kultura. Ang isang bidirectional translation layer ay nag-uugnay ng Korean vocabulary sa katumbas na mga parirala sa Japanese, gamit ang mga cross-lingual embeddings na nabanggit kanina. Ang reinforcement learning ay nagpapasadya ng pagkakasunod-sunod: kung nahihirapan ang user sa pag-uugma ng pandiwa, inuuna ng reward model ang mga ehersisyo sa gramatika; kung gusto nila ang pagbabasa ng mga liriko ng kanta, mas maraming pagsasalin ng liriko ang ipinapakita ng agent. Dahil ang memory system ay nagtatatak ng bawat aralin sa wika at domain, ang pag-unlad sa pag-aaral ng Korean ay maaaring makatulong sa pagsulat ng malikhaing akda sa Japanese, nagtataguyod ng transfer learning sa pagitan ng mga wika. Maaaring ibahagi ng mga user ang kanilang bilingual na plano sa pag-aaral sa komunidad ng Macaron, at sinusubaybayan ng agent ang feedback upang pinuhin ang module library.
Ang kakayahang gumana sa iba't ibang wika ay nagbubukas ng mas malalim na mga tanong tungkol sa digital na pagkakakilanlan. Tinuturing ng self-model ng Macaron ang pagkakakilanlan bilang isang umuusbong na kwento na nabubuo mula sa mga interaksyon. Kapag ang mga interaksyong ito ay nagaganap sa iba't ibang wika, nagiging mas pabago-bago ang kwento. Ang mga salita ay may dalang konotasyong kultural: ang salitang Hapon na kokoro at ang salitang Koreano na 마음 ay parehong isinasalin bilang "puso/isip" ngunit nagpapahayag ng iba't ibang nuances. Habang inihahabi ni Macaron ang mga alaala ng isang user sa iba't ibang wika, kailangan nitong magpasya kung aling salita ang gagamitin kapag tumutukoy sa damdamin o alaala. Ang pagpiling ito ay humuhubog sa pananaw ng user sa kanilang sarili. Ang mga pilosopo ng wika ay nagsasabi na ang pag-iisip ay naapektuhan ng mga salitang ginagamit natin; isinasakatuparan ni Macaron ang ideyang ito sa pamamagitan ng pagpili ng wika batay sa konteksto at ninanais na emosyonal na tono.
Ang cross-lingual identity ay tumutukoy din sa konsepto ng digital personhood. Maaaring magpanatili ang isang gumagamit ng iba't ibang persona sa konteksto ng Hapon at Koreano—pormal at reserbado sa trabaho, kaswal at ekspresibo sa mga komunidad ng fandom. Iginagalang ng Macaron ang mga hangganang ito sa pamamagitan ng pagpapanatili ng magkakahiwalay na mga cluster ng alaala habang pinapayagan ang sinadyang pagsasama-sama. Sa paglipas ng panahon, maaaring piliin ng mga gumagamit na pagsamahin ang mga aspeto ng kanilang mga pagkakakilanlan, natutuklasan ang mga karaniwang thread sa pagitan ng kanilang buhay sa Hapon at Koreano. Pinapadali ng Macaron ang prosesong ito sa pamamagitan ng pagtukoy ng mga katulad na halaga, gawi, at aspirasyon na matatagpuan sa parehong set ng mga alaala, na tumutulong sa mga gumagamit na bumuo ng isang magkakaugnay na personal na kwento sa iba't ibang kultura.