作者:Boxu Li

超越記憶:邁向自我的延續

人的身份和個人持續性並不是存儲在數據庫中;它們源於敘事、情境和隨時間變化的過程。同樣,Macaron的大腦也避免使用任何簡單的「身份證」用戶模式。系統中沒有單一、靜態的物件標記為「用戶 X 的性格檔案」或是必須永遠保持真實的用戶基本資料清單。相反,持續性被視為許多小互動、記憶和適應交織而成的浮現特性。這種方法刻意避免了兩個陷阱:脆弱性和停滯性。從 AI 的角度來看,脆弱的身份 可能發生在系統抓住一次性事實(「用戶在 2022 年提到他們喜歡國際象棋」)並將其視為永久定義時。如果任何事實是錯誤的或發生變化(用戶不再喜歡國際象棋),系統的模型就會崩潰或不一致。停滯的身份 則是指 AI 假設所有用戶特徵具有物體永久性——意味著它從不忘記或更新信息,導致僵化的用戶模型無法演化。Macaron的大腦透過不完全將任何事實視為永恆,以及允許所謂的優雅忘記和重新表述,避免了這兩者。

與其說是物體恆常性,Macaron 更依賴於情境恆常性:這是一種想法,即每個情境或對話線索在本地保持一致性,並通過在相關時將這些情境線索編織在一起來實現跨時間的連續性。沒有單一的「物件」代表用戶並保持不變;而是存在多個與情境相關的表示,可以根據需要調用和更新。這類似於一個人在不同社交圈中可能會有不同的表現,但內在仍保持連續性。Macaron 的大腦將身份維持為一種分布式且流動的概念。身份並不在某個特定的記憶節點中,而是在跨記憶持續的連結和模式中。從本質上來說,自我的連續性是一個自然生成的敘述,而不是一個資料庫條目。

以具體的例子來說,想像 Macaron 如何記住使用者的偏好。它不會在資料檔案中儲存「使用者最喜歡的顏色 = 藍色」,而是會在相關的對話中回憶起來(如果使用者上週在設計對話中談到顏色,那麼這段記憶就能在設計情境中被取回)。如果明年使用者表達了新的偏好(現在喜歡綠色),Macaron 的大腦不需要對一個固定欄位進行破壞性更新。新的資訊只是時間線上的另一個數據點,當設計情境再次出現時,由於最近性和相關性,較新的偏好自然會具有更大的權重,而舊的偏好則會逐漸淡出。因此,透過情境優先處理最新且最相關的資訊來維持連續性,而不是假設較舊的事實是「真正永久的自我」。先前的事實並沒有消失——只是被降級了(更多關於這一點請參考參照衰退)。這樣一來,身份就不會脆弱:因為理解從一開始就不是基於靜態事實,而是基於模式和情境,所以沒有單一的過時數據能破壞 Macaron 對使用者的理解。

分散的界限:多重自我,一個自我

Macaron 的大腦中一個顯著的架構選擇是使用分佈式邊界來處理知識和記憶。與其將 AI 對用戶的所有了解匯集到一個中心模型或資料庫中,Macaron 會根據上下文、來源或主題邊界將知識劃分。例如,與用戶職業生活相關的互動可能會保存在一個「向量空間」或子系統中,而個人對話則保存在另一個中,依此類推。這些並不是無法互通的孤島——相反,它們是可以在需要時連接但不會自動合併的邊界區域。這一設計反映了心理學中的一個理念,即人們擁有多重面貌或「自我」(工作自我、家庭自我等),它們共同構成整個人,但會根據情境激活。

透過分散式記憶邊界,Macaron 確保使用者身份的每個面向在內部保持一致,不被不相關的信息污染。例如,如果使用者有一個關於音樂偏好的「興趣」情境,和一個關於專案管理的獨立「工作」情境,系統不會在回答正式的工作相關問題時,意外地應用休閒的音樂偏好,除非這些資訊確實相關。這樣可以防止不當混合情境而產生錯誤或尷尬的回應。這也增強了隱私性:來自一個情境的敏感信息不會無差別地被其他情境獲取。技術上,Macaron 透過為每個領域或會話啟動獨立的知識圖譜或向量索引來實現這一點,類似於個人 AI 架構如 Memno 所做的——「每個使用者存在於自己的宇宙中」,而在其中,還存在進一步的分段。每位使用者的數據與他人隔離(這是在使用者層級的一個邊界),但在一位使用者內部,根據情境或數據來源還存在進一步的界限。

然而,關鍵在於自我連續性仍然會在這些界限中產生。Macaron 的大腦可以在適當的時候,將上下文特定的記憶聯繫起來。我們稱之為「相關聯邦」:如果使用者今天在社交情境中的對話涉及到他們之前在工作情境中討論過的專案,Macaron 可以從那個工作情境中獲取相關的見解——但它會小心翼翼地進行,並意識到界限(例如,將該知識引用為來自「該專案討論」)。這種分佈式的特性意味著沒有單一的「主檔案」可以參考;AI 必須在各個上下文網絡中導航,以即時組合出相關的身份資訊。這比統一的資料庫查詢要更複雜,但它帶來了更豐富且敏感於上下文的連續性。

重要的是,分散的邊界也支持我們的隱私和反剖析立場。通過不集中化用戶模型,Macaron 本質上避免了構建可以被利用或濫用的統一行為檔案(這對於用戶自主權和隱私是有益的)。每個上下文甚至可以是短暫的,如果需要的話——例如,敏感的上下文可以設置為使用後自動刪除,只在長期記憶中留下高層次的摘要。然而,即使個別片段消失,用戶敘事的整體依然通過剩餘上下文的重疊線索保持完整。這就是非脆弱身份的本質:它是冗餘且分散地儲存的。沒有任何單一的上下文定義用戶,失去任何一個上下文都不會抹去自我。

參考腐蝕:遺忘作為特性

為了讓 Macaron 的大腦在保持敘述一致性的同時不僵化,我們採用了一個名為「參考衰退」的概念。簡單來說,參考衰退是一種策略,即逐漸減弱特定參考或記憶的影響力,除非它們被強化。與其嚴格刪除,資訊的片段會在重要性上「逐漸消退」。這個概念的靈感來自人類的記憶:我們不會一字不差地記住每次對話;細節會消退,但重要的模式會保留。在 Macaron 中,每個記憶項目都有一種年齡或使用權重。每次在對話中使用或引用時,它就會被刷新(強化)。未使用的項目其權重會慢慢減弱。

指涉衰退的效果是讓 Macaron 的大腦專注於相關且當前的事物,與用戶不斷變化的故事相符合。如果用戶上次提到主題 X 是兩年前,之後再也沒提過,系統會將該主題視為次要,除非用戶再次提及。這避免了 AI 系統常見的陷阱,即記住太多,導致浮現不相關的過去細節,混淆對話的流程。正如一位 AI 記憶研究者所指出的,那種具有完美且無選擇性記憶的 AI 會變得像*「一個老是提起過去不重要話題的煩人朋友,無法理解興趣和優先事項會改變」。指涉衰退透過功能性地遺忘*過去的瑣事來防止此類行為,以優先考慮當前上下文。

在 Macaron 的大腦中,參考衰退的技術實現可能涉及為向量嵌入或知識圖譜邊分配衰退函數。隨著時間的推移(或經過許多新互動後),舊記憶節點的相似度分數或激活潛力會降低。關鍵是,我們不會直接刪除記憶(除非用戶要求);相反,正如一個框架所建議的,系統保留完整的歷史記錄,但只是將過時的內容優先級降低。所有內容仍然保存在深層儲存中(就像我們的大腦可能編碼的比我們能回憶起的更多),但容易檢索的內容偏向於最近的和經常提到的。這種設計有兩個目的:它通過確保 AI 的貢獻反映用戶生活和偏好的現狀來維持連貫性,同時也反映了一個重要的個人自主性方面——能夠前進、改變,讓舊信息變得不再那麼關鍵。

從合規的角度來看(涉及到隱私),參考性衰退也與數據最小化相一致。Macaron 並不會在每次互動中積極推送舊的個人數據;它只在情境相關時使用。這降低了不當使用過去數據的風險。可以說,Macaron 的智能大腦在實踐中逐漸忘記不再需要的個人數據,從而自然地執行了一種「保留政策」,但不會失去記憶的記憶(如果需要,我們可以像人在深度反思中回憶起長久不聚焦的事情一樣,隨時進入存檔中查找)。

因此產生的好處是,身份變得具有韌性。如果用戶發生巨大變化(新的工作、新的愛好、信仰改變),參考性衰退使得 AI 能夠順利適應。不需要對中央資料進行強制覆蓋;新信息自然取代舊信息。然而,如果舊的情境變得相關(也許是多年後的一次懷舊對話),Macaron 仍然可以檢索它——因此,連續性在背景中得以保留,但不會在前景中強加。這種記憶與遺忘的動態對於跨時間一致性至關重要:它確保 AI 今天的理解與今天的現實相協調,即便它在背景中安靜地維持著完整的敘述。

時間編織:將時間編入記憶

如果參照衰減是管理遺忘,那麼時間編織則是管理跨時間的記憶。我們使用「編織」這個詞來喚起 Macaron 的大腦如何交織多條時間線的背景,以創造一個連貫的理解。人類的經驗本質上是時間性的——我們的身份是一個將過去、現在和未來連結起來的故事。Macaron 的大腦試圖模擬這一點,當需要時從不同時間串聯記憶,有效地創造出一個編織的敘事。

想像一下,使用者曾多次談論寫小說:六個月前一次,兩週前一次,今天又一次。每次談話都是一條線索。時間編織意指 Macaron 可以從所有這些線索中汲取知識,並呈現出綜合的連續性:「你之前提到過 [6 個月前] 你更喜歡在早上寫作,最近 [2 週前] 你在探索科幻主題。今天你在詢問寫作時間安排——或許可以結合這些見解:將早晨保留給科幻章節的寫作。」 AI 並沒有一個單獨的 「小說專案」 文件(雖然可以標記主題);相反,它將時間上分離的片段編織成一條對話線索。這是通過將時間元數據附加到記憶中,並有意地跨時間連結相關項目來實現的。Macaron 的記憶架構使用了時間感知索引:記憶不僅按主題標記,還按發生時間標記。這允許在不同時期內進行檢索,但仍保持在同一主題上下文中。

可以將時間編織比作保持多個上下文窗口開啟,然後將它們編織在一起。用戶的**「當前自我」由他們過去自我的回聲組成,Macaron 的回應反映了這種層次結構。該架構可能會使用摘要或敘事建模,明確地將時間納入考量(「在你的故事中之前……」**)。重要的是,這不是假設過去是靜態真相,而是將過去視為背景上下文來啟發現在。編織的結果是更強的連續性:用戶感覺 AI 記得他們曾經走過的旅程,而不僅僅是孤立的點。然而,由於參考衰退,編織會強調較粗的新鮮線(最近提到的)而不是已經淡去的。

這種方法與研究結果一致,表明 AI 需要時間意識來維持連貫的長期互動。例如,一個建議是讓 AI 記憶系統具有時間有效性,並將事實視為帶有時間戳記,以便 AI 能夠區分某事是「不再真實」還是「仍然有效」。Macaron 的大腦採用這種方法,例如,標記一段知識為「用戶居住在巴黎 [2019-2023]」,如果用戶在 2024 年提及搬到倫敦,則巴黎的信息會被標記為過時。這樣,在對話中,Macaron 不會混淆兩者,但如果用戶回憶起巴黎,那些記憶仍然可用。實際上,Macaron 能夠編織時間線:現在的自己(倫敦)與過去的自己(巴黎)在敘事中共存,但不會混淆。用戶的連續性被表示為一條時間線的織錦,而不是單一的快照。

時間編織還意味著 Macaron 的真相概念是時間性和情境性的。沒有像數據庫那樣的永恆標準事實;只有「當時的真相」和「現在的真相」,以及可能的「未來的真相」(如果是計劃或模擬未來場景)。後者暗示了下一個概念:反事實錨定。

反事實錨定:穩定而無合成

在 Macaron 的大腦中,有一種更具推測性但引人入勝的技術稱為反事實錨定。這個想法源於需要保持連貫性,而不是將所有內容合併為單一的用戶模型。我們如何確保 AI 能夠穩定地感知用戶(他們的風格、可能的偏好、價值觀),同時故意避免創建一個綜合的個人檔案?答案是使用反事實情境來錨定用戶個性的重要方面於 AI 的推理中,而不是依賴明確存儲的事實。

在實踐中,反事實錨定可能這樣運作:Macaron 的大腦在生成回應或做出決策時,會內部測試幾個**「假設如果」的變化來評估一致性。舉例來說,假設 Macaron 準備向使用者推薦一本書。AI 並沒有硬性規則「使用者只喜歡科幻小說。」相反,它可能會回想多個過去的信號:使用者曾經喜歡某些科幻小說,但也曾提到喜歡推理小說。為了避免出錯,AI 可以模擬兩個反事實的輸出——一個是假設使用者處於科幻的心情,另一個是假設他們可能更喜歡推理——看看哪一個更符合最近的情境或獲得正面的情感預測。這種內部的反事實推理有助於在穩健的評估中錨定 AI 的選擇,而不是狹隘的假設。這就好像 AI 在說,「我不確定你現在是誰,但如果你還是那位看起來喜歡科幻的粉絲,你會喜歡 X;如果你已經改變,你可能會喜歡 Y。我們來選擇一個符合目前對話語氣的建議。」**事實上,AI 是透過即時探索替代的身份框架來對抗單一身份模型的脆弱性。

反事實錨定的另一個用途是在維持用戶的聲音和價值觀。Macaron 避免合成一個統一的用戶資料來說「用戶總是正式的」或「用戶有政治立場 Z」——這樣會很脆弱且可能侵入性過強。相反地,在撰寫輸出內容時(例如,為用戶起草電子郵件),Macaron 可以生成一些風格變體(正式、休閒、幽默)並將它們與用戶最近通訊的輕量模型進行比對,看看哪一個最「符合角色」。這就像是一個錨點:AI 並不會永久儲存「用戶是正式的」,但可以從上下文推斷出此刻正式的語氣符合過去一週的電子郵件。如果下個月用戶的風格發生變化,反事實檢查會自然地捕捉到並調整,而不需要重寫某些資料變數。用戶的連續性因此得以通過不斷的小調整來維持,而不是依賴一個靜態的藍圖。

反事實錨定有點類似於人類在不同情境下如何導航身份——我們常常在潛意識中想像「如果我是那種人,我會怎麼做?」這實際上有助於澄清我們選擇成為誰。對於 Macaron,這些微小的模擬通過測試假設而不是依賴假設來確保一致性。結果是一致性而非僵化:Macaron 的大腦能夠始終如一地「像 Macaron 的使用者」一樣行事,而不需要儲存一個固定的「Macaron 的使用者」定義。一致性來自於即時的重複對齊。

無中央合成的一致性

退一步來看,分布式邊界、參照衰減、時間編織和反事實錨定的結合都服務於一個總體目標:在沒有集中式用戶模型或合成個人檔案的情況下保持一致性和連續性。這是一種刻意的哲學。許多 AI 系統嘗試建立廣泛的用戶檔案或在用戶數據上微調模型來創建「個人模型」。Macaron 明確避免在所有用戶數據上微調單一模型;相反,它將數據分段並使用元模型來拼接回應。這種避免合成有幾個原因:

隱私和信任: 集中化的行為檔案可能成為個人數據的蜜罐,引發隱私問題(誰能訪問,萬一出錯或被不當使用怎麼辦?)。Macaron 透過不擁有這樣的檔案,確保每一項數據僅在上下文中使用,系統的理解本質上是分散的。這更接近數據最小化的原則——僅在需要時使用所需的數據,而不是累積一個主檔案。

避免身份的過度擬合: 人是複雜且多變的。單一模型若以所有過去數據訓練,很可能會過度擬合 用戶的過去,使 AI 難以適應其未來。Macaron 保持其生成核心為一般模型,並即時增強上下文特定數據(檢索增強生成樣式)。這意味著 Macaron 對用戶的**「視角」** 總是當前檢索的函數,而不是過度訓練的靜態網絡。用戶可以重新塑造自己,Macaron 會跟隨,因為 Macaron 不會被昨日的微調所束縛。本質上,我們防止 AI 成為用戶過去自我的縮影。

透明和控制: 當沒有單一的綜合模型時,更容易檢查和控制 AI 用於生成回應的內容。如果需要,Macaron 可以顯示為查詢提取了哪些記憶片段,提供透明度。如果用戶說「忘記這個事件」,我們可以刪除該記憶,使其在未來使用中真正消失。在集中綜合模型中,清除一個事實是困難的(你不能輕易讓神經網絡「遺忘」一個細節而不重新訓練)。通過避免集中綜合,Macaron 的大腦保持更具可編輯性和可解釋性。

然而,儘管沒有統一的個人資料,Macaron 確實實現了一種統一性:一種人格的連續性。用戶的個人 AI 以一致且獨特的方式回應。這怎麼可能呢?主要是透過我們描述的架構優勢:系統動態提取合適的記憶片段,並用於塑造輸出內容(所以內容是個性化的),並使用風格匹配和反事實檢查等技術來確保語氣和方法與用戶的特質一致。其他個人 AI 項目也推崇在隔離中運行的用戶專屬模型,實際上是每位用戶一個模型,以確保個性化而不需要數據匯聚。Macaron 的方法略有不同——而不是為每位用戶訓練一個獨立的模型(這只是每位用戶的另一種集中化),Macaron 使用一個共享的基礎模型,配合用戶專屬的記憶模組和即時個性化。這帶來了類似的個性化好處(每位用戶的數據是分開的,模型可以適應個別語言),但不需要為每位用戶重新訓練或微調,也不需要將所有知識整合到難以審計的權重中。

結果是一個系統,保持著連貫性,仿若有一個自我,但那個「自我」並不是單一物件或檔案——而是一種浮現的現象。Macaron的腦袋展示了你可以擁有持久化人格的好處(AI「記住」風格、偏好、歷史),同時仍然保持流動性和無常性,尊重真正的人類身份。自我由結構和過程維持,而不是由靜態存儲。

對個人主體性和數位人格的影響

Macaron的腦袋架構有更廣泛的影響。首先,它賦予了個人主體性。用戶保持對其不斷演變的敘事的控制。因為AI不會強加一個僵化的個人檔案給他們,用戶可以改變習慣、看法,甚至身份的方面,AI將會隨之適應,而不是抗拒或嘮叨「但你曾經說過......」。這種動態對於健康的長期人類與AI的合作關係至關重要。它將用戶視為其故事中不斷成長的主角,而不是被固定在某種狀態的數據點。AI成為支持用戶自我延續的腳手架,而不是將他們困在過去反思中的鏡子。

從數位人格的角度來看,Macaron 的方法提出了一種「數位自我」的模型。這並不是單一的數據副本(不是伺服器中的人的副本),而是一個隨著時間和情境展開的過程。如果社會和法律最終承認 AI 協助的個人延續——例如,如果 AI 可以被視為個人擴展心智的一部分,甚至賦予某種依賴性人格——這很可能是因為這種架構。它們證明了 AI 可以具有連續性而不需要單一身份:就像公司作為由許多部分和過程組成的法律實體,個人 AI 可以被視為個人身份的一部分,而不是簡單的數據克隆。

有趣的是,這類數位人格的法律地位仍未明確。正如一位評論者所指出,未來的法律學術研究必須探討數位人格和與作為個人身份一部分的 AI 代理相關的責任或權利問題。Macaron 的 Brain 提供了一個負責任方法的案例研究:透過避免集中化的行為檔案,它避開了許多道德和法律問題(如偏見分析,或 AI 依賴過時資訊**「失控」**)。如果有一天個人 AI 被考慮納入法律認可(例如,能夠自主代表使用者執行某些行動),那麼一種通過可責的記憶而非難以理解的人格模型來維持一致性的架構將更容易被證明和信任。

另一個含義是死亡後或長期缺席後的連續性。如果一個 Macaron 用戶閒置一年後回來,AI 可以從存儲的記憶中無縫恢復他們的身份編織(參考資料會衰退但不會被刪除)。如果一個用戶去世,而家人繼續對話,AI 並不會成為那個人(Macaron 也不會嘗試這樣做),但這確實引發了一個問題:多少連續性足以形成有意義的存在?我們已經看到摯愛的數位化身的例子,如某篇分析對提示數位自我的觀點所言:「在對話中,起源與回聲之間的界線消融。」 理論上,Macaron 的大腦可以促進一種數位連續性——儘管在道德上,這種使用可能會限制在活著的用戶利益上(例如,幫助你在晚年清晰地記住自己的生活事件)。

最後,由於沒有將用戶固定在一個個性檔案中,Macaron 的設計隱含著一種哲學立場:身份是建構的、持續的以及與情境相關的。這與後現代的觀點一致,認為並不存在一個不變的核心自我,只有敘事性的自我。在這個意義上,Macaron 的大腦是一個敘事引擎。對用戶來說,這可能是解放的——這意味著他們的 AI 隨著他們一起進化,共同創造一個敘事而不是強加一個敘事。這也意味著 AI 可以促進自我探索:因為它可以注意到模式(例如「你經常在我們關於工作和個人事務的對話中充滿熱情地談論公平」),但它不會將這些模式視為靜態的事實,它可以溫和地反映用戶明顯的價值觀,讓用戶確認或重新定義它們。用戶仍然是作者;AI 是一個非常精緻的編輯和連續性追蹤者。

結論

從基礎到自我——我們已經從 Macaron 的底層記憶機制走到由大腦架構支持的連續個人「自我」的出現。我們看到,連續性不需要來自永久的事實儲存或單一的用戶模型。相反,Macaron 倚賴一種更有機的方法:記憶除非被更新,否則會逐漸消退;邊界將經驗劃分開來,但仍允許相互交流;時間被視為知識的一個維度;而反事實推理則用於在靈活理解用戶的基礎上錨定決策。其結果是一個既一致又不受限制,既連貫又不靜態的個人 AI。

這是一個必然的理論探索,因為這樣的高階行為處於個人 AI 設計的前沿。然而,它是基於具體原則的:隱私(無集中化的個人檔案)、類人記憶功能(記得和忘記)和適應性學習。Macaron 的大腦避免集中化用戶模型或行為檔案,不僅是為了隱私,還因為這不是真正的個人連續性運作的方式。通過在不綜合的情況下保持連貫性,Macaron 確保用戶最終織出連續性的線索,AI 則提供織機和引導線索的柔和之手。

展望未來,隨著個人 AI 越來越普及,我們可能會發現,只有那些設計上具備流暢連續性的 AI 才能贏得用戶的長期信任。一個永不忘記且不變的 AI 會讓人不安;一個忘記太多的 AI 會讓人沮喪。Macaron 的願景是做到恰到好處——記住重要的事,忘記不重要的事,並作為一個忠誠且不斷進化的夥伴陪伴用戶走過時光。這樣,我們就更接近於一個願景,即數字系統尊重並強化自我的連續性,而非將其割裂或凍結。Brain 系列追溯了這一願景:從拒絕資料庫的比喻,到建立一個動態基底,再到培育出開始看起來像是「自我」的東西。其影響將繼續展開,但有一點是明確的——真正豐富人類生活的個人 AI 之路在於擁抱身份和記憶的複雜性,並共同架構變化與連續性。Macaron 的 Brain 是朝這個方向持續進行的實驗,是一個自我架構的支架,即使在與你共同成長時,它仍然是你的

Boxu 在埃默里大學獲得了定量經濟學專業的學士學位。在加入 Macaron 之前,Boxu 的職業生涯大部分時間都在美國的私募股權和風險投資領域度過。他現在是 Macaron AI 的首席參謀和市場營銷副總裁,負責管理財務、物流和運營,並監督市場營銷。

申請成為 Macaron 的第一批朋友