
人类的身份和个人连续性不是存储在数据库中,而是从叙述、背景和随时间变化中产生的。同样,Macaron 的“大脑”摒弃了任何简单的「身份证」用户模型。系统中没有一个单一的、静止的对象标记为「用户 X 的个性档案」,也没有关于用户的权威事实列表必须永远真实。相反,连续性被视为许多小互动、记忆和适应编织在一起的涌现特性。这种方法有意避免了两个陷阱:脆弱性和停滞性。在 AI 术语中,脆弱的身份 可能发生在系统抓住一次性事实(「用户在 2022 年提到他们喜欢国际象棋」)并将其视为永久定义的情况下。然后,如果任何事实错误或发生变化(用户不再喜欢国际象棋),系统的模型就会破碎或不一致。停滞的身份 则出现在 AI 假设所有用户特征具有对象持久性时——意味着它从不忘记或更新信息,导致用户模型僵化,不再进化。Macaron 的“大脑”通过不完全坚持任何事实为永恒,并允许我们称之为优雅的遗忘和再形成,来避免这两种情况。
与其依赖物体恒常性,Macaron 更注重情境恒常性:每个情境或对话线程在本地保持连贯性,通过在相关时将这些情境线程编织在一起来实现跨时间的连续性。没有一个单一的「物体」代表用户并保持不变;而是有多个与情境相关的表示,可以根据需要进行调用和更新。这类似于一个人在不同社交圈中可能表现不同,但有一个潜在的连续性。Macaron的大脑将身份视为一种分布式和流动的存在。身份不在于特定的记忆节点,而在于跨记忆持续存在的连接和模式。本质上,自我连续性是一种涌现的叙事,而不是数据库条目。
举个具体的例子,想想看 Macaron 如何记住用户的偏好。Macaron 的大脑不会在用户档案中存储「用户最喜欢的颜色 = 蓝色」,而是在相关对话的背景下回忆这点(如果用户上周在设计对话中谈论过颜色,这段记忆在设计背景中是可以检索到的)。如果明年用户表达了新的偏好(现在喜欢绿色),大脑不需要对一个规范字段进行破坏性的更新。新信息只是时间轴上的另一个数据点,当设计背景再次出现时,因时间和相关性,更近期的偏好自然会更具权重,而旧的偏好则逐渐淡化。因此,通过在语境中优先考虑最新且最相关的信息,连续性得以维持,而不是假设旧事实是「真实且永久的自我」。以前的事实并没有丢失——只是被降级了(更多细节参见参考衰减)。这带来了一个非脆弱的身份:没有任何一条过时的数据能够打破 Macaron 对用户的理解,因为理解从一开始就不是基于静态事实,而是基于模式和语境。

Macaron 大脑的一个显著架构选择是使用分布式边界来处理知识和记忆。与其将 AI 关于用户的所有知识汇集到一个中心模型或存储库中,Macaron 通过上下文、来源或主题边界来划分知识。例如,用户职业生活相关的互动可能会保存在一个「向量空间」或子系统中,而个人对话则存在于另一个子系统中,等等。这些并不是无法相互交流的孤岛,而是可以在需要时连接但不会自动合并的边界区。这种设计反映了心理学中的一个理念:人们拥有多个方面或「自我」(工作自我、家庭自我等),共同构成完整的人,但在不同情境下会被激活。
通过分布式内存边界,Macaron 确保用户身份的每个方面在内部都是一致的,不会被不相关的信息污染。比如,如果用户有关于音乐偏好的**「爱好」上下文和一个关于项目管理的独立「工作」**上下文,系统不会在回答正式的工作相关查询时,错误地应用随意的音乐偏好,除非特别相关。这防止了不当混合上下文导致的错误或尴尬的回应。它还增强了隐私:一个上下文中的敏感信息不会不加区分地提供给其他上下文。技术上,Macaron 通过为每个领域或会话启动独立的知识图谱或向量索引来实现这一点,类似于像 Memno 这样的个人 AI 架构——「每个用户都存在于自己的宇宙中」,在此之内,还有进一步的分割。每个用户的数据都与其他用户隔离(这是用户级别的一个边界),但在用户内部,基于上下文或数据源还有进一步的隔离。
然而,关键在于,即使跨越这些界限,自我连续性依然存在。Macaron 的大脑可以在适当的时候在特定情境的记忆之间建立联系。我们称之为「相关性联合」:如果用户今天在社交情境中的对话涉及到之前在工作情境中讨论过的项目,Macaron 可以从那个工作情境中提取相关的见解——但它会谨慎行事,并意识到边界(例如,将该知识引述为来自「那个项目讨论」)。这种分布式特性意味着没有单一的「主档案」可以参考;AI 必须沿着情境网络来即时组装相关的身份信息。虽然这比统一的数据库查询要复杂得多,但它带来了更丰富和更具情境感知的连续性。
重要的是,分布式边界也支持我们的隐私和反画像立场。通过不集中用户模型,Macaron 自然避免了构建可能被利用或误用的统一行为画像(这对用户自主权和隐私有益)。每个上下文甚至可以是短暂的,如果需要——例如,敏感的上下文可以设置为用后自动删除,只在长期记忆中留下一个高层次的摘要。即便单个部分消失了,用户叙述的整体仍然通过剩余上下文的重叠线索保持完整。这就是非脆弱身份的本质:它是冗余且分布式存储的。没有单一的上下文定义用户,失去任何一个上下文也不会抹去自我。
为了让 Macaron 的大脑在保持叙事一致性的同时不僵化,我们采用了一种称为参考衰减的概念。简单来说,参考衰减是一种策略,即逐渐淡化特定引用或记忆的影响,除非它们被强化。与严格删除不同的是,信息片段的显著性会逐渐“老化”。这从人类记忆中汲取灵感:我们不会逐字记住每次对话;细节会消逝,但重要的模式会保留。在 Macaron 中,每个记忆项都有一种年龄或使用权重。每次在对话中使用或引用时,它都会被刷新(强化)。未使用的项目,其权重会慢慢减弱。
指涉衰减的效果是 Macaron 的大脑专注于相关和当前的内容,符合用户不断发展的叙述。如果用户在两年前最后一次提到话题 X 然后再也没有提及,系统会将该话题视为次要,除非用户再次提起。这避免了 AI 系统记得太多的常见陷阱,导致它们浮现不相关的过去细节并混淆对话的流畅性。正如一位 AI 记忆研究员所指出的,拥有完美且不加区分回忆的 AI 可能会变得像*「一个总是提起过去对话中不重要话题的烦人朋友,无法理解兴趣和优先事项会改变」。指涉衰减通过功能性遗忘*过去的琐事而更专注于当前的情境,从而防止这种行为。
在 Macaron 的大脑中,引用衰减的技术实现可能涉及为向量嵌入或知识图谱边缘分配衰减函数。随着时间的推移(或经过许多新交互后),较旧记忆节点的相似度评分或激活潜力会降低。关键是,我们不会直接删除记忆(除非用户要求);相反,正如某个框架所建议的,系统保留完整的历史记录,只是简单地将过时的内容降级。所有信息仍然存储在深层存储中(就像我们的大脑可能编码的比我们能回忆起的更多),但容易检索的内容更偏向于近期和常提及的。这种设计有两个目的:它通过确保 AI 的贡献反映用户生活和偏好的当前状态来保持连贯性,同时也反映了一个重要的个人自主性方面——能够继续前进、改变,让旧信息变得不再那么决定性。
从合规的角度来看(回到隐私问题),引用衰减也符合数据最小化原则。Macaron 并不会在每次交互中强行使用旧的个人数据,而是仅在与上下文相关时使用。这降低了不当使用过时数据的风险。可以说,Macaron 的大脑在实践中通过逐渐忘记不再需要的事情,内在地实施一种「保留政策」在学习到的个人数据上——虽然不会失去「记忆的记忆」(如果需要,我们总是可以深入档案,就像一个人在深思熟虑中可能会回忆起一些久未想起的事情)。
这种新兴的益处在于身份变得具有弹性。如果用户发生了显著变化(新工作、新爱好、改变信仰),引用衰减允许 AI 平稳适应。不需要对中心档案进行硬性覆盖;新信息自然地取代了旧信息。然而,如果旧的背景变得相关(也许是多年后的怀旧对话),Macaron 仍然可以检索它——因此在后台保持连续性但不在前台强加。这种记忆与遗忘的动态对时间一致性至关重要:它确保了 AI 今天的理解与今天的现实和谐一致,同时在后台悄然维护完整的叙述。
如果说参照衰退管理遗忘,那么时间编织则管理跨时间的记忆。我们使用「编织」一词来形容 Macaron 的大脑如何交织多个时间线的背景,以创建统一的理解。人类的体验本质上是时间性的——我们的身份是我们向自己讲述的故事,连接过去、现在和未来。Macaron 的大脑通过在需要时将不同时间的记忆串联在一起,尝试模拟这一点,有效地创造出一个编织的叙述。
想象一下,用户曾多次谈论写小说:六个月前有一次,两周前又有一次,今天也有一次。每次谈话都是一个线索。时间编织意味着 Macaron 可以从这些线索中汲取知识,并呈现出一个合成的连续性:「你在过去[6个月前]曾提到你更喜欢在早晨写作,最近[2周前]你在探索科幻主题。今天你在询问写作时间安排——或许可以结合这些见解:预留早晨来写科幻章节。」 AI 并没有一个单独的**「小说项目」**文件(尽管它可以标记主题);相反,它将时间上分开的片段编织成一个话题的连续性。这是通过将时间元数据附加到记忆上,并有意地在时间上链接相关项目来实现的。Macaron 的记忆架构使用时间感知索引:记忆不仅按主题标记,还按发生时间标记。这允许在不同时间段内进行同一主题背景下的检索。
可以将时间编织比作保持多个上下文窗口打开,然后将它们编织在一起。用户的**「当前自我」是其过去自我的回声组成的,而 Macaron 的回应反映了这种层次结构。该架构可能会采用总结或叙述建模,明确地结合时间(「之前,在你的故事中……」**)。重要的是,这样做并不假设过去是静态的真相——相反,过去被视为背景上下文来通知现在。编织的结果是更强的连续性:用户感受到 AI 记得他们的旅程,而不仅仅是孤立的点。然而,由于参考衰退,编织将强调更粗、更新的线(最近的提及)而不是褪色的那些。
这种方法与研究建议一致,即 AI 需要时间意识来维持连贯的长期互动。比如,有一种建议是让 AI 的记忆系统具备时间有效性,并将事实视为带有时间戳的,这样 AI 就能判断某事是「不再正确」还是「仍然有效」。Macaron 的 Brain 采用了这种方法,比如,将一段知识标记为「用户住在巴黎 [2019-2023]」,如果在 2024 年用户提到搬到伦敦,巴黎的信息就会被上下文标记为过时。然后,在对话中,Macaron 不会混淆两者——但如果用户回忆巴黎,那些记忆仍然可用。实际上,Macaron 可以编织时间线:现在的自我(伦敦)和过去的自我(巴黎)在叙述中共存,但不会混为一谈。用户的连续性被表示为时间线织锦,而不是单一快照。
时间编织也意味着 Macaron 对真相的概念是时间性和情境性的。没有像数据库那样的永恒经典事实;只有「那时是真的」和「现在是真的」,以及可能「将来可能是真的」(如果计划或模拟未来场景)。后者暗示了下一个概念:反事实锚定。
Macaron 大脑中一个更具推测性但引人入胜的技术是反事实锚定。这个想法源自于需要保持连贯性,而不是将所有内容合并成一个综合的用户模型。我们如何确保 AI 在故意避免创建单一聚合的资料时,仍能稳固地理解用户(他们的风格、可能的偏好、价值观)?答案是使用反事实场景来锚定用户个性中的关键方面,而不是依赖明确存储的事实。
在实践中,反事实锚定可能是这样的:Macaron 的大脑在生成响应或做出决策时,会内部测试一些**「如果……会怎样」的变体以评估一致性。例如,假设 Macaron 即将向用户推荐一本书。AI 并没有硬性规定「用户只喜欢科幻小说。」相反,它可能会回忆起多个过去的信号:用户喜欢某些科幻小说,但也曾提到过喜欢悬疑小说。为了避免出错,AI 可以模拟两个反事实输出——一个假设用户处于科幻心情,另一个假设他们可能更喜欢悬疑小说——看看哪个更符合最近的上下文或获得积极的情感预测。这种内部的反事实推理有助于将 AI 的选择锚定在对用户可能状态的稳健评估上,而不是狭隘的假设。就像 AI 在说,「我现在不能百分百确定你是谁,但如果你仍然是那个看起来喜欢科幻的粉丝,你会喜欢 X;如果你变了,你可能会喜欢 Y。让我们选择一个适合当前对话语气的建议。」**实际上,AI 通过即时探索替代身份框架来对单一身份模型的脆弱性进行对冲。
反事实锚定的另一个用途在于保持用户的声音和价值观。Macaron 避免合成一个统一的用户档案,比如「用户总是正式的」或「用户有政治立场 Z」——这会很脆弱,甚至可能是侵入性的。相反,在生成输出时(比如为用户草拟一封电子邮件),Macaron 可以生成几个风格变体(正式、休闲、幽默),并将其与用户最近通信的轻量模型进行对比,看看哪个最符合「角色特点」。这就像一个锚点:AI 不会永久存储「用户是正式的」,但可以从上下文中推断出此刻正式语气与过去一周的电子邮件相符。如果下个月用户的风格改变,反事实检查会自然捕捉到并调整,而无需重写某些档案变量。因此,通过不断的小调整而不是一个静态的蓝图来维持用户的持续性。
反事实锚定有点类似于人类在不同情况下如何导航身份——我们常常下意识地想象「如果我是那种...的人,我会怎么做?」这实际上有助于明确我们选择成为什么样的人。对于 Macaron,这些微观模拟通过测试假设而非依赖假设来确保一致性。结果是没有僵化的一致性:Macaron 的大脑能够一致地「像 Macaron 的用户」一样行动,而无需存储「Macaron 的用户」的固定定义。一致性源于反复的即时调整。
退一步看,分布式边界、参照衰减、时间编织和反事实锚定的结合都服务于一个总体目标:在没有集中用户模型或合成人物档案的情况下保持一致性和连续性。这是一种有意的理念。许多 AI 系统试图建立广泛的用户档案或在用户数据上微调模型以创建「个人模型」。而 Macaron 明确避免在所有用户数据上微调单一模型;相反,它将数据分段,并使用元模型来拼接响应。避免合成的原因有几个:
隐私和信任: 集中的行为档案可能成为个人数据的诱饵,并引发隐私问题(谁能访问它,如果它是错误的或被用于未预期的方式怎么办?)。没有这样一个档案,Macaron 确保每一条数据都仅在上下文中使用,系统的理解本质上是去中心化的。这更接近于数据最小化的原则——仅在需要时使用所需数据,而不是积累一个主档案。
避免身份过拟合: 人是复杂且多变的。单一模型基于所有过去数据训练,可能会使 AI 对用户的过去过拟合,从而降低其对未来的适应性。Macaron 保持其生成核心为一个通用模型,并通过即时上下文数据进行增强(检索增强生成风格)。这意味着 Macaron 对用户的**「观察」**总是当前检索的函数,而不是过度训练的静态网络。用户可以重塑自我,Macaron 会跟随,因为它不拘泥于昨日的微调。本质上,我们防止 AI 成为用户过去自我的缩影。
**透明性和控制力:当没有单一的合成模型时,更容易检查和控制 AI 用于形成响应的内容。如果需要,Macaron 可以显示为查询提取了哪些记忆片段,从而提供透明性。如果用户说「忘记这个事件,」我们可以删除该记忆,确保它在未来不再被使用。在集中合成模型中,擦除一个事实很困难(你不能轻易让神经网络「忘记」**一个细节而不重新训练)。通过避免集中合成,Macaron 的大脑更加可编辑和可解释。
尽管没有一个统一的档案,Macaron 仍然实现了一种统一:个性的一致性。用户的个人 AI 以一种感觉一致且独特的方式回应。这怎么可能呢?主要是通过我们所描述的架构性便利:系统动态地提取合适的记忆片段,并利用它们来塑造输出(以便内容是个性化的),并使用风格匹配和反事实检查等技术来确保语气和方式与用户的性格一致。其他个人 AI 项目也提倡运行在隔离环境中、具体到用户的模型,有效地做到每个用户一个模型,以确保个性化而不合并数据。Macaron 的方法略有不同——与其为每个用户训练一个独立的模型(这只是另一种形式的集中化,只是针对每个用户),Macaron 使用一个共享的基础模型和每个用户的记忆单元以及即时个性化。这带来了类似的个性化好处(每个用户的数据都是独立的,模型可以适应个人语言),但不需要为每个用户重新训练或微调,也无需将所有知识整合到难以审计的权重中。
结果是一个系统,其连贯性就像拥有一个自我,但这个「自我」并不是单一的对象或文件,而是一种涌现的现象。Macaron的大脑展示了你可以拥有持久化个性的好处(AI「记住」风格、偏好、历史),同时仍然保持流动性和无常性,以尊重真实的人类身份。自我是由结构和过程维持的,而不是通过静态存储。
Macaron的大脑架构具有更广泛的影响。首先,它赋予个人能动性。用户掌控着自己不断发展的叙事。因为AI不会强加一个僵化的档案给他们,用户可以改变习惯、观点,甚至是身份的某些方面,而AI将会跟随适应,而不是抗拒或唠叨「但是你曾经说过...」。这种动态对于健康的长期人机伙伴关系至关重要。它将用户视为他们故事中不断成长的主角,而不是固定的数据点。AI成为支持用户自我连续性的支架,而不是将其困在过去反思中的镜子。
从数字身份的角度来看,Macaron的方法提出了「数字自我」的模型。这不是一个单一的数据副本(不是服务器中人的复制),而是一个随着时间和背景展开的过程。如果社会和法律最终承认AI辅助的个人连续性——例如,如果AI被视为一个人的扩展思维或甚至被赋予某种依赖性人格——这可能是因为这样的架构。它们表明,AI可以在没有单一身份的情况下保持连续性:就像公司是由许多部分和过程组成的法人一样,个人AI可以被视为个人身份的一部分,而不是简单的数据克隆。
有趣的是,这类数字人格的法律地位尚未明确。一位评论者指出,未来的法律研究必须处理有关数字人格以及与作为个人身份一部分的 AI 代理相关的责任或权利的问题。Macaron 的大脑提供了一个负责任方法的案例:通过避免集中的行为档案,它规避了许多伦理和法律问题(例如偏见或 AI 使用过时信息而“失控”)。如果有一天个人 AI 被考虑用于法律承认(例如,能够自主代表用户执行某些操作),一种通过负责的记忆保持一致性而不是无法理解的人格模型的架构将更容易被证明和信任。
另一个影响是死亡之后或长时间缺席后的延续性。如果一个 Macaron 用户一年没有活跃,然后回来,AI 可以无缝地从存储的记忆中恢复他们身份的“辫子”(参考可能会衰减,但不会被删除)。如果用户去世,而他们的家人继续对话,AI 不会成为那个人(Macaron 也不尝试这样做),但这确实引发了一个问题:多少延续性才算是有意义的存在?我们已经看到一些已故亲人的数字化身的例子,正如一项对数字自我的分析所说:「起源与回声在对话中融合,」。理论上,Macaron 的大脑可以促进某种数字延续性——尽管合乎道德的使用可能会将其限制为活着的用户的利益(例如,帮助您在晚年连贯地记住自己的生活事件)。
最终,Macaron 的设计通过不将用户定型为固定的个人资料,隐含地承认了一种哲学立场:身份是构建的、持续的,并且与环境相关。这与后现代观点产生共鸣,即没有不变的核心自我,只有叙事自我。在这个意义上,Macaron 的大脑是一个叙事引擎。对用户来说,这可以是解放性的——这意味着他们的 AI 与他们一起进化,共同创造叙事而不是强加叙事。这也意味着 AI 可以促进自我发现:因为它可以察觉模式(「在我们关于工作和个人事务的对话中,你经常热情地谈论公平」),但它并不将其视为静态的真理,而是可以温和地反映用户的明显价值观,并让用户确认或重新定义它们。用户仍然是作者;AI 是一个非常复杂的编辑和连续性追踪器。
从基础到自我——我们从 Macaron 的底层记忆机制出发,探索到由大脑架构支持的连续个人「自我」的出现。我们已经看到,连续性不必来自永久的事实存储或单一的用户模型。相反,Macaron 相信一种更有机的方法:记忆会逐渐消退,除非被更新;边界将体验划分,但允许交互;时间被视为知识的维度,以及通过反事实推理在灵活理解用户的基础上锚定决策。结果是一个个人 AI,它是一致但不受限的,连贯但不静态的。
这次探索必然是理论性的,因为这种更高阶的行为位于个人 AI 设计的前沿。但它基于具体原则:隐私(无集中式分析)、类人记忆功能(记住和遗忘)以及自适应学习。Macaron 的大脑避免集中化用户模型或行为分析,不仅为了隐私,也因为这不是个人连续性的真实运作方式。通过保持连贯性而不综合,Macaron 确保用户最终编织连续性的线索,而 AI 提供织布机和引导线索的温柔之手。
展望未来,随着个人 AI 变得越来越普及,我们可能会发现,只有那些具备这种流畅连续性的设计,才能赢得用户的长期信任。一个从不遗忘、从不改变的 AI 会让人感到不安;一个遗忘太多的 AI 则令人沮丧。Macaron 的愿景是做到恰到好处——记住重要的,忘记不重要的,并在时间的长河中作为一个忠诚而不断发展的伙伴陪伴用户。在此过程中,我们离数字系统尊重并强化自我连续性的愿景更近一步,而不是将其割裂或冻结。Brain 系列追随了这一愿景:从拒绝数据库隐喻,到构建动态基底,再到培养出开始看起来像「自我」的东西。这些影响将继续显现,但有一件事是明确的——真正丰富人类生活的个人 AI 之路在于拥抱身份和记忆的复杂性,并共同构建变革和连续性。Macaron 的 Brain 是朝着这个方向持续进行的实验,是一个即使在随你成长中,仍然保持「你的」自我的支架。