作者: Boxu Li

介绍

Macaron AI 于 2025 年 8 月亮相时,它并没有将自己定位为另一个企业助理,而是作为一个旨在丰富日常生活的 个人伴侣。它的使命本质上是国际化的:从一开始,该平台就支持英语、中文、日语、韩语和西班牙语,显示出跨越语言和文化界限的雄心。对于日本和韩国的用户来说——这两个国家拥有充满活力但又截然不同的数字生态系统——这一多语言承诺不仅仅是一个营销口号。它引发了一些技术问题:Macaron 如何处理跨语言对话?它的记忆系统如何应对多样化的剧本、词汇和文化参考?是什么设计选择让一个代理可以在一个时刻“用”平假名思考,而下一个时刻则使用韩文?本文探讨了 Macaron AI 的跨语言架构以及它如何为日本和韩国用户个性化体验,同时保持一致的身份。

大规模的个性化需要的不仅仅是翻译。Macaron 旨在通过日常互动来塑造你的形象,记住的不仅是事实,还有诸如饮食目标和情感高潮等细微差别。为了实现多语言的个性化,需要能够跨写作系统捕捉意义、处理语言切换并尊重文化规范的数据结构和算法。本文将分解这些基础技术:多语言分词强化引导的记忆检索分布式身份管理文化适应。我们还将讨论偏见、隐私和跨区域合规等挑战,并概述跨语言个人助手的研究方向。

1 多语言架构与分词

1.1 带有脚本识别子词单元的通用词汇表

大型语言模型依赖于分词器将原始文本拆解为模型可以处理的单元。对于像英语和西班牙语这样的语言,子词分词(Byte-Pair Encoding 或 SentencePiece)可以合理地捕捉词形。然而,日语和韩语却带来独特的挑战。日语混合了三种文字(汉字、平假名和片假名)且没有空格,而韩语的韩字是一个特征字母表,组成音节块。因此,Macaron 的工程师构建了一个多语言词汇,使用对文字识别的子词单元。每个词元不仅编码字符,还包括一个语言标识符,使模型能够区分同形异义词(例如,「ha」可能是韩语音素或日语助词「は」)。该词汇包括常见的汉字组合、部首和韩字字母,使模型能够有效地表示词形单位,并将罕见词拆解为有意义的部分。

通过在多种语言间共享子词单元,Macaron 利用跨语言迁移。例如,「学习」这个概念在日语中表示为勉強(benkyō),在韩语中表示为공부(gongbu)。虽然字符和发音不同,但代理通过跨语言学习的语义嵌入将这些标记映射到相似的向量空间。这种统一的表示使得 Macaron 能够理解日本用户对「语言学习」的兴趣,并在韩国朋友询问「공부 계획」(学习计划)时应用这些知识。如果没有统一的词汇表,模型将把这些视为不相关的概念。

1.2 脚本间的上下文窗口和对齐

Macaron 的 6710 亿参数模型在大型多语种语料库上进行训练,但对话的序列长度需要一个高效的上下文窗口。由于动词的黏着性质和内嵌助词,日语和韩语句子可能比英语更长。为了支持长对话,Macaron 采用了层次注意力机制:模型在传递总结表示给全局层之前,会先处理局部窗口(句子或段落)。这种方法减少了内存占用,同时允许代理在长时间对话中保持上下文。它还支持跨文字对齐,模型通过在训练期间最小化日语和韩语表示之间的距离来学习它们之间的对应关系(这一技术借鉴于跨语言自然语言处理)。

1.3 运行时语言检测和代码切换

日本和韩国用户经常在对话中混合使用英语或中文术语,尤其是在技术领域或流行文化中。Macaron 的推理管道包括一个运行时语言检测器,为每个传入的语句标记支持语言的概率分数。当句子包含来自多种语言的外来词或短语时,代理会将输入拆分为段落,并在适当的语言环境下处理每个段落。这确保了语音输出中的正确发音和习语的正确处理。记忆子系统将语言标签附加到检索到的条目中,即使查询语言与存储语言不同,也允许 Macaron 检索相关的经验。

2 记忆令牌和跨语言检索

2.1 强化引导的检索和记忆令牌

Macaron 的标志性创新是其 记忆令牌,这是一种动态指针,有助于代理决定记住什么、何时更新记忆,以及如何将这些记忆应用于当前任务。该令牌与分层记忆库交互:短期上下文、中期情节记忆和长期知识。强化学习 (RL) 训练代理根据用户满意度和任务成功等反馈来调整令牌。如果日本用户反复询问同一列车时刻表,RL 策略会学习在记忆中提升这些细节。如果韩国用户对过去评论的重现表示不适,策略会学习更快地衰减引用。

2.2 分布式身份和领域边界

Macaron 团队拒绝单一用户档案的概念;相反,身份被视为从小互动中构建的新兴叙述。记忆根据领域边界(例如,工作、爱好、家庭)进行组织,并具有相关性联盟机制,允许跨领域检索。对于日本和韩国用户,领域边界还包括语言领域:记忆项目可能被标记为“日语—爱好—音乐”或“韩语—家庭—金融”。当代理收到韩语查询时,它首先搜索韩语记忆,但如果语义内容匹配,可以联邦到日语记忆。这防止了交叉污染,同时实现了跨语言连续性。

2.3 多语言环境中的参考衰减与隐私

不常访问的记忆会随着时间的推移而衰退;衰退率可能因领域而异。参考衰减机制减少未使用记忆的权重,确保日本用户对韩剧的短暂兴趣不会永久占用记忆空间。衰减也支持隐私;关于家庭或财务的敏感信息可以设置为更快衰减。用户可以明确删除记忆或将其标记为机密。Macaron的政策绑定框架将机器可读的隐私规则直接附加到数据上,因此带有“私人—韩语”标签的记忆可能只能在该语言的认证会话期间访问。结合差异化透明度,它为不同的利益相关者提供不同级别的披露,这些机制使Macaron能够在日本的隐私规范和韩国不断发展的AI法规中游刃有余。

3 文化适应与角色定制

3.1 通过个性测试和色彩调色板进行入门

注册后,用户会完成三个个性测试,帮助 Macaron 与他们匹配个性化人物角色,包括颜色、沟通风格和语音。在注重美学和礼节的日本,测试可能会强调社会礼仪,而韩国的问卷则可能侧重于家庭动态和同龄人关系。生成的人物角色不仅影响用户界面,还影响智能助手的礼貌程度、语气和文化参考的选择。日本的人物角色可能更倾向于间接建议(「下周要不要计划个野餐?」),而韩国的人物角色可能更欣赏直接的鼓励(「我们计划一次家庭旅行吧!」)。

3.2 本地化迷你应用:从家计簿到호지관

Macaron 按需生成迷你应用的能力不仅限于通用的生产力工具。这个平台可以生成定制应用,代码行数超过 100,000 行,例如受日本「家计簿」传统(家庭记账方法)启发的预算工具或韩国「호지관」规划应用(管理家庭活动和祭祖)。用户只需用自然语言描述他们的需求,助手就会合成一个符合当地习俗的程序。这需要一个领域特定模板的库,以及整合本地日历、公共假期和金融法规的能力。强化学习通过评估用户满意度来优化生成过程:如果日本用户经常调整家计簿应用以添加「お土産」(纪念品)和「お作り」(每月慈善)等类别,生成器就会学习在未来的应用中默认包含这些类别。

3.3 情感规范和沟通风格

日本和韩国在表达情感方面有不同的规范。日本文化通常重视谦逊和对情境的敏感,而韩国文化则更倾向于热情的社交互动。Macaron 会根据这种差异调整其回应风格,借鉴强调流动身份和用户赋权的数字人格研究。实际上,这意味着在日语对话中,代理可能会使用敬语和间接表达,而在韩语中则更倾向于主动建议。记忆系统记录语气反馈并自适应调整对话风格。这些调整不是硬编码的,而是通过强化学习产生的:如果用户对某种沟通风格的反应始终积极,奖励信号将强化这种行为。

4 实施细节:跨语言个人代理的工程设计

4.1 数据收集和训练流程

创建一个能够用日语和韩语对话的个人助手需要高质量的数据。Macaron 的训练语料库包括所有支持语言的授权书籍、新闻文章、博客、转录和用户生成内容。数据经过过滤,以确保礼貌性、偏见和领域覆盖。在预训练阶段,使用掩码语言模型和下一个词预测在组合的多语言数据上进行学习,以掌握共享表示。微调阶段引入了来自人类反馈的强化学习(RLHF):东京和首尔的双语注释者对回复的文化适切性进行评分,使模型能够学习诸如何时使用敬语或何时询问澄清问题等微妙提示。额外的对比学习目标鼓励不同语言间语义等效短语的对齐。

4.2 跨语言记忆索引和向量检索

Macaron 的记忆库在高维向量空间中存储嵌入。对于每个记忆项目,助手会计算一个表示,捕捉内容和语言。跨语言记忆索引使用近似最近邻搜索来检索项目,无论查询语言如何。例如,如果一个韩国用户询问“피자 만들기 레시피”(披萨食谱),助手可能会找到关于“ピザの作り方”(如何制作披萨)的日语记忆,因为两者都接近披萨的概念。在检索时,助手会根据用户权限进行筛选,然后使用内建的翻译和总结器将检索到的记忆转换为用户偏好的语言。这使得在保持隐私边界的同时,跨语言分享知识成为可能。

4.3 安全和偏见缓解

跨语言模型存在传播训练数据中偏见的风险。对于日本和韩国,性别角色和年龄等级在文化中具有重要意义,Macaron 实施了偏见缓解策略。在微调过程中,强化学习奖励包括对增强刻板印象或违反当地规范的回应的惩罚(例如,假设只有女性处理家庭财务)。政策绑定系统确保未经用户同意,个人数据不会跨语言翻译。此外,Macaron 的差异化透明性允许监管机构以不同细节水平审核模型行为:日本当局可能会查看一般使用模式,而韩国监管者可以在严格保密下检查原始日志。

5 个挑战和研究方向

5.1 处理方言和地区变体

日语和韩语都有地区方言。在日本,关西方言使用与标准东京话不同的词汇和语调。韩国的方言如全罗和庆尚也提出了类似的挑战。目前的语言检测器可能会错误分类方言输入,导致尴尬的回应。未来的工作可以结合训练于地区语料库的方言嵌入,使代理能够识别并以适当的方言回应。用户甚至可以要求 Macaron 模仿特定口音,这对于角色扮演游戏或语言学习模块可能具有吸引力。

5.2 跨语言常识推理

虽然当前模型能够在多语言间对齐语义表达,但常识推理仍然受到文化差异的影响。像「積ん読」(买书却不读)或「빵셔틀」(面包班车,指被迫为他人买面包的人)这样的表达在英语中没有直接对应的说法。针对跨语言常识知识图谱的研究可以帮助 Macaron 理解和解释这些文化特定的概念。与 ConceptNet 或本地化版本的 ATOMIC 等知识库的集成可以提供结构化的文化知识,以补充 LLM 的统计学习。

5.3 隐私和法规一致性

日本的《AI 促进法》强调透明性,并使 AI 开发与现有法规保持一致,而韩国提议的《AI 框架法》则引入了风险管理和人类监督的义务。个人代理必须在尊重用户隐私的同时,导航这些框架。需要对联邦学习进行研究,以保持用户数据在设备上,差分隐私以防止跨语言的身份去识别,以及法律合规引擎,能够解释日语和韩语的法规文本并将其映射到政策绑定规则。

5.4 跨模态集成

未来的个人助手将不限于文本。Macaron 的愿景包括连接物联网设备、VR 接口和可穿戴设备。在处理多种语言时,跨模态交互增加了新的复杂性:一位日本用户可能会用日语与智能音箱对话,同时在混合现实头戴设备上阅读韩文字幕。在不同语言之间对齐音频、文本和视觉数据需要能够同时处理语音、文本和图像的「多模态转换器」,以及模态之间的「时间同步」。

5.5 案例研究:双语教育应用

为说明跨语言个性化的实际应用,考虑一位想学习韩语的日本用户,他请 Macaron 构建一个学习应用。助手首先查阅用户的记忆以获取先前的语言经验——也许他们曾学习过英语,因此助手知道他们偏好视觉辅助和间隔重复。意图解析器提取出诸如「目标语言:韩语」、「源语言:日语」、「学习重点:语法和词汇」以及「每日时间:20 分钟」等槽位。Macaron 的程序合成引擎随后组装模块:一个用于韩文的「形态分析器」、一个用于日语字幕的「句子分割」模块、「间隔重复计划程序」,以及一个整合用户兴趣(如韩剧或 J-pop 歌词)例子的「测验生成器」。

生成的应用程序展示了带有发音、例句和文化注释的词汇卡片。一个双向翻译层将韩语词汇链接到等效的日语短语,使用前面提到的跨语言嵌入。强化学习个性化序列:如果用户在动词变位上遇到困难,奖励模型会优先考虑语法练习;如果他们喜欢阅读歌词,代理会提供更多歌词翻译。由于记忆系统用语言和领域标记每一课,韩语学习的进步可以在用户的日语创意写作中得到应用,促进语言之间的迁移学习。用户可以在 Macaron 社区中分享他们的双语学习计划,代理会监测反馈以完善模块库。

5.6 关于跨语言身份的哲学反思

跨语言操作的能力引发了关于数字身份的更深层次问题。Macaron 的自我模型将身份视为由互动构建的动态叙事。当这些互动发生在多种语言中时,叙事变得更加流动。词语承载着文化内涵:日语中的 kokoro 和韩语中的 마음 都可以翻译为「心/思维」,但它们唤起的细微差异不同。当 Macaron 在各语言中编织用户的记忆时,必须决定在指代情感或记忆时使用哪些词。这一选择塑造了用户对自我认知。语言哲学家认为思维受我们使用的词汇影响;Macaron 通过根据情境和期望的情感基调选择语言来实现这一理念。

跨语言身份还涉及到数字人格的概念。在日本和韩国的语境中,用户可能会保持不同的个性——在工作中正式而矜持,在粉丝社区中则休闲而富有表现力。Macaron 尊重这些界限,通过保持独立的记忆簇并允许有意的交互来实现。随着时间的推移,用户可能选择合并其身份的某些方面,发现其日本和韩国生活之间的共同点。Macaron 通过突出在两组记忆中发现的相似价值观、习惯和愿望,帮助用户在跨文化中打造连贯的个人叙述。

Boxu 在埃默里大学获得了定量经济学专业的学士学位。在加入 Macaron 之前,Boxu 的职业生涯大部分时间都在美国的私募股权和风险投资领域度过。他现在是 Macaron AI 的首席参谋和市场营销副总裁,负责管理财务、物流和运营,并监督市场营销。

申请成为 Macaron 的首批朋友