Autor: Boxu Li
Reinforcement Learning (RL) ist zu einem Eckpfeiler der modernen KI geworden, da es Agenten ermöglicht, durch Versuch und Irrtum optimale Strategien zu erlernen. Im Kontext von persönlicher KI steht RL jedoch vor einzigartigen Herausforderungen: Belohnungen sind subjektiv, Umgebungen sind nicht stationär und ethische Überlegungen sind zahlreich. Die Designer von Macaron AI haben sich diesen Herausforderungen direkt gestellt und ein mehrschichtiges RL-System entwickelt, das Speicherverwaltung, Code-Synthese, Gesprächsstil und mehr steuert. Dieser Blog untersucht, wie Macaron hierarchisches RL, Belohnungsmodellierung, Kreditzuweisung und Fairness-Beschränkungen anwendet, um einen wirklich personalisierten Agenten zu schaffen. Wir vergleichen auch Macarons RL-Ansatz mit RL in anderen Bereichen und erkunden zukünftige Richtungen.
Anders als bei Brettspielen oder simulierten Umgebungen agieren persönliche Agenten in offenen Räumen, in denen Belohnungen nicht allein durch den Erfolg einer Aufgabe abgeleitet werden können. Macaron sammelt implizites Feedback (Gesprächslänge, Nutzungsfrequenz, Ton der Benutzerantworten) und explizites Feedback (Bewertungen, Daumen hoch/runter), um ein Belohnungssignal zu konstruieren. Wenn beispielsweise ein japanischer Benutzer längere Gespräche führt, nachdem der Agent höfliche Sprache verwendet hat, erhöht diese positive Korrelation die Belohnung für ähnliches Verhalten. Wenn ein koreanischer Benutzer eine generierte Mini-App aufgrund eines überladenen Designs schlecht bewertet, verringert sich die Belohnung für dieses UI-Muster. Diese Signale fließen in ein Belohnungsmodell ein, das die Benutzerzufriedenheit für einen gegebenen Zustand und eine Aktion vorhersagt.
Macarons RL ist multi-objektiv. Neben der Benutzerzufriedenheit umfasst die Belohnung auch Faktoren wie Datenschutz, Compliance, Ressourcennutzung und Ethik. Das Teilen sensibler Informationen ohne ordnungsgemäße Zustimmung zieht eine Strafe nach sich, während effektives Speichern von Speicherplatz einen Bonus bringt. Bei der Codegenerierung beeinflussen Effizienz und Wartbarkeit die Belohnung: Übermäßige Komplexität (z. B. unnötige Generierung von 100.000 Zeilen) führt zu negativen Belohnungen. Die Belohnungsgewichte sind für verschiedene Regionen abgestimmt. Japans Schwerpunkt auf Datenschutz und Transparenz erhöht die Strafe für Datenschutzverletzungen, während Koreas Fokus auf Innovation möglicherweise mehr Gewicht auf Geschwindigkeit und Neuheit legt. Das Ausbalancieren dieser Ziele erfordert sorgfältiges Design; Macaron verwendet eine Skalarisierungsfunktion, die mehrere Ziele durch gewichtete Summen und dynamische Skalierung in eine einzige Belohnung umwandelt.
Menschliches Feedback ist entscheidend, um KI-Systeme mit Werten in Einklang zu bringen. Macaron setzt Präferenzauslotung um, indem es alternative Antworten oder Mini-App-Designs präsentiert und die Nutzer fragt, welche sie bevorzugen. Diese Daten speisen ein Inferenzmodell, das eine latente Nutzenfunktion über mögliche Aktionen lernt. Der Ansatz ähnelt RLHF (Reinforcement Learning from Human Feedback), das zur Schulung großer Sprachmodelle verwendet wird, aber Macaron erweitert es durch die Einbeziehung von kulturellen Anmerkungen: Japanische Annotatoren kommentieren Höflichkeit und Kontext, während koreanische Annotatoren gemeinschaftliche vs. individualistische Formulierungen notieren. Das resultierende Belohnungsmodell spiegelt nuancierte Präferenzen über Kulturen hinweg wider.
Die Aufgaben von Macaron reichen von lockeren Gesprächen bis hin zur Erstellung komplexer Software. Um diese Vielfalt zu bewältigen, verwendet das System hierarchisches RL. Auf der obersten Ebene wählt ein Meta-Controller zwischen Modulen wie Gesprächsmanager, Speichermanager, Synthesemotor, Emotionsregler usw. aus. Jedes Modul wird von einer separaten RL-Politik gesteuert. Beispielsweise entscheidet der Speichermanager mithilfe von RL, was gespeichert oder vergessen werden soll, während der Synthesemotor RL verwendet, um Codevorlagen auszuwählen. Der Meta-Controller erhält eine hochrangige Belohnung, die alle Modulbelohnungen kombiniert, und lernt, wann Aufgaben delegiert werden sollen. Diese Zerlegung reduziert den Suchraum und verbessert die Stichprobeneffizienz.
Innerhalb von Modulen verwendet Macaron das Optionsframework, um wiederverwendbare Subrichtlinien darzustellen. Eine „Option“ entspricht einer Abfolge von Aktionen, die ein Teilziel erreichen, wie zum Beispiel „die Ausgaben des letzten Monats zusammenfassen“ oder „einen zweisprachigen Lernplan empfehlen“. Optionen, die im japanischen Bereich entdeckt werden, können in den koreanischen Bereich übertragen werden, wenn die zugrunde liegende Struktur übereinstimmt. Wenn Macaron eine effektive Methode lernt, um eine Benutzeranfrage in einer Sprache zu bearbeiten, kann es dieselbe Option anwenden, wenn das Konzept in einer anderen Sprache auftaucht, und so die Anpassung beschleunigen.
Zeitliche Abstraktion ermöglicht es RL-Agenten, über verschiedene Zeitskalen hinweg zu denken. Macaron definiert Makro-Aktionen, die mehrteilige Dialoge oder langwierige Berechnungen umfassen. Zum Beispiel beinhaltet die Planung eines Familienurlaubs in Korea eine Makro-Aktion, die die Auswahl des Reiseziels, den Transport, die Unterkunft und die Gestaltung des Reiseplans umfasst. RL-Agenten bewerten die Makro-Aktion basierend auf kumulativen Belohnungen anstatt auf kurzfristige Signale. Dies ermutigt den Agenten, langfristige Zufriedenheit zu berücksichtigen, wie etwa sicherzustellen, dass die Reise mit den Schulferien übereinstimmt oder Terminkonflikte vermieden werden.

Die Zuordnung von Anerkennung zu spezifischen Aktionen ist schwierig, wenn Belohnungen verzögert eintreffen. Macaron verwendet Zeitweben, um Ereignisse über die Zeit mit narrativen Fäden zu verbinden. Der Agent erstellt ein Interaktionsdiagramm, in dem Knoten Erinnerungen und Kanten kausale Beziehungen darstellen. Bei der Bewertung eines Ergebnisses durchläuft das System das Diagramm rückwärts, um festzustellen, welche Abrufe oder Aktionen beigetragen haben. Zum Beispiel, wenn die Empfehlung eines japanischen Festivals Wochen später das Nutzerglück erhöhte, schreibt der Agent einen Teil der Belohnung dem Abrufen der Festivalerinnerung und der Erstellung einer entsprechenden Mini-App zu. Diese explizite kausale Analyse hilft der RL-Politik, effektive Abrufstrategien zu erlernen.
Um die Zuordnung von Anerkennung zu verbessern, verwendet Macaron kontrafaktische Verankerung. Der Agent zieht alternative Aktionen in Betracht, die er hätte ergreifen können, und schätzt den Unterschied im Ergebnis. Wenn das Nichterinnern eines koreanischen Nutzers an ein Familienereignis zu Peinlichkeiten geführt hätte, erhält die tatsächliche Erinnerung eine positive kontrafaktische Belohnung. Dies ermutigt den Agenten, die Konsequenzen des Vergessens oder Erinnerns von Informationen vorauszusehen. Kontrafaktisches Denken hilft auch, Überanpassungen zu vermeiden: Der Agent nimmt nicht automatisch an, dass das Wiederholen einer erfolgreichen Aktion immer die gleiche Belohnung bringt; stattdessen testet er, ob die Aktion tatsächlich das Ergebnis verursacht.
Macarons RL-Implementierung integriert Eligibility Traces, einen Mechanismus, der Zuständen und Aktionen, die Belohnungen vorausgehen, Anerkennung zuteilt. Wenn der Agent eine verzögerte Belohnung erhält (z. B. die Zufriedenheit eines Benutzers, nachdem er eine Mini-App wochenlang genutzt hat), hilft der Trace, das Signal auf frühere Entscheidungen wie die Auswahl des Speichers, den Konversationston und die Wahl der Codemodule zurückzuleiten. Eligibility Traces werden durch einen Abklingfaktor gewichtet; Zustände, die näher an der Belohnung liegen, erhalten höhere Anerkennung. Dieser Mechanismus ermutigt den Agenten, langfristige Zufriedenheit anstelle kurzfristiger Gewinne zu optimieren.
Reinforcement Learning kann unbeabsichtigt Vorurteile aus Feedback-Daten lernen. Macaron begegnet dem, indem Fairness-Beschränkungen in die Belohnungsfunktion integriert werden. Zum Beispiel wird der Agent bestraft, wenn er konsequent geschlechtsspezifische Aktivitäten empfiehlt, ohne danach gefragt zu werden. Das System überwacht Empfehlungsmuster über demografische Gruppen hinweg und passt die Belohnungen an, um Chancengleichheit zu gewährleisten. Bei sensiblen Themen wie Finanzen oder Gesundheit konsultiert der Agent eine ethische Richtlinienbibliothek, die kulturelle Normen und gesetzliche Anforderungen kodiert. Verstöße gegen diese Richtlinien lösen eine negative Belohnung aus oder blockieren die Aktion vollständig.
Das AI Framework Act in Korea verlangt menschliche Aufsicht für hochwirksame Systeme und generative AI-Benachrichtigungen. Macaron erfüllt diese Anforderungen, indem es einen Menschen in den Entscheidungsprozess einbezieht, insbesondere bei wichtigen Entscheidungen wie Finanzplanung oder Gesundheitsberatung. Wenn ein koreanischer Nutzer eine risikoreiche Mini-App generiert, wird er vom System dazu aufgefordert, die Aktionen zu überprüfen und zu genehmigen. Das AI Promotion Act in Japan betont Transparenz; daher protokolliert Macaron RL-Entscheidungen und bietet den Nutzern Erklärungen, warum bestimmte Erinnerungen oder Module ausgewählt wurden. Diese Maßnahmen schaffen Vertrauen und gewährleisten Verantwortlichkeit.
Das AI-Gesetz in Japan führt einen Name-and-Shame-Mechanismus bei Nichteinhaltung ein. Die RL-Protokolle von Macaron enthalten nicht nur Belohnungen, sondern auch die Gründe hinter den Entscheidungen. Wenn Regulierungsbehörden ermitteln, kann das Unternehmen nachweisen, dass Vorurteile angesprochen und Datenschutzregeln eingehalten wurden. Die Protokolle unterstützen auch Benutzerprüfungen; Einzelpersonen können sehen, wie ihr Feedback das Verhalten des Agenten beeinflusst hat. Solche Transparenz verhindert den Missbrauch von RL und fördert ethische Innovationen.
RL hat beeindruckende Ergebnisse in den Bereichen Gaming (AlphaGo, Dota 2), Robotik und Empfehlungssystemen erzielt. In diesen Umgebungen gibt es jedoch eindeutige Ziele (ein Spiel gewinnen, Fehler minimieren) und klare Belohnungen. Persönliche KI hingegen muss Ziele aus unstrukturierten Daten ableiten und mit menschlichen Werten in Einklang bringen. Im Gaming ist die Erkundung oft uneingeschränkt; ein Agent kann einen Bauern opfern, um einen Positionsvorteil zu erlangen. Bei persönlicher KI ist es inakzeptabel, das Vertrauen der Nutzer für kurzfristiges Engagement zu opfern. Macarons Belohnungsmodell bestraft ausdrücklich Handlungen, die das Vertrauen schmälern, und macht das System bei Bedarf konservativ.
Einige Open-Source-Projekte bieten RL-gesteuerte persönliche Assistenten, die Aufgaben planen oder Arbeitsabläufe automatisieren. Diese Systeme gehen oft von konstantem Nutzerfeedback aus und behandeln Aufgaben als unabhängig. Macaron unterscheidet sich, indem es Aufgaben durch seine Gedächtnis-Engine integriert und hierarchisches RL verwendet, um Interaktionen zu verwalten. Sein RL-Modell ist tief mit kulturellem Kontext, Datenschutzbestimmungen und Code-Generierung verflochten, was es komplexer, aber auch leistungsfähiger macht. Während andere Agenten RL verwenden könnten, um Songs basierend auf Hörhistorie zu empfehlen, nutzt Macaron RL, um zu entscheiden, ob Sie daran erinnert werden sollten, Ihre Mutter anzurufen, bevor eine Geschenkempfehlung generiert wird.
Forscher haben RL-Methoden zur Steuerung von großen Sprachmodellen vorgeschlagen, wie RLHF und unüberwachtes Umgebungsdesign. Macaron trägt zur Literatur bei, indem es RL in einer realen, multidomain, mehrsprachigen Umgebung demonstriert. Das FireAct-Projekt hat zuvor festgestellt, dass RL die Genauigkeit des logischen Denkens um 77 % im Vergleich zu promptbasierten Agenten verbessert; Macaron erweitert diese Idee, indem es RL-Politiken nicht nur auf Denkaufgaben, sondern auch auf Speicherverwaltung, Code-Synthese und Dialogstil trainiert. Es betont die Bedeutung von hierarchischem Design, Kreditvergabe und Fairness-Beschränkungen beim Skalieren von RL zu persönlichen Agenten.
Reinforcement Learning optimiert auf Belohnung, aber Belohnungsfunktionen kodieren menschliche Werte, die kulturübergreifend unterschiedlich sind. Es stellen sich metaethische Fragen: Soll der Agent das Glück maximieren, pflichtbasierte Ethik einhalten oder Fairness mit Autonomie ausbalancieren? Macaron geht dieses Problem an, indem es normative Prioren aus kulturellen Daten lernt. In Japan, wo Harmonie und Respekt für soziale Ordnung geschätzt werden, betont das Belohnungsmodell Höflichkeit, Konsens und Subtilität. In Korea, wo Gemeinschaftsresilienz und mutige Innovationen geschätzt werden, belohnt das Modell proaktive Unterstützung und Transparenz. Diese normativen Rahmenbedingungen sind nicht statisch; Benutzer können ethische Regler anpassen, und Macaron erforscht den Wertebereich unter Einschränkungen. Eine laufende Forschungsrichtung ist die Integration formaler ethischer Theorien—Utilitarismus, Deontologie, Tugendethik—in RL-Agenten, damit sie die moralischen Abwägungen hinter ihren Handlungen erklären können. Dies ist besonders wichtig für Entscheidungen mit hoher Auswirkung, wie Finanzplanung oder Gesundheitsempfehlungen.
Persönliche Agenten vermitteln zunehmend Interaktionen innerhalb von Familien, Teams und Gemeinschaften. Soziales Verstärkungslernen erweitert RL auf Multi-Agenten-Umgebungen, in denen Agenten das Wohlergehen mehrerer Interessengruppen berücksichtigen müssen. Zum Beispiel muss Macaron bei der Planung eines Familientreffens individuelle Vorlieben (Privatsphäre, Arbeitsbelastung) mit kollektiver Zufriedenheit in Einklang bringen. Gruppenbelohnungen können durch Pareto-Effizienz geformt werden – sicherstellen, dass die Verbesserung des Ergebnisses eines Mitglieds anderen nicht schadet – oder durch Prinzipien der fairen Teilung. In mehrsprachigen Kontexten kann die Gruppenkommunikation in mehreren Sprachen erfolgen; der Agent muss Belohnungen über Sprachgrenzen hinweg vereinheitlichen und gleichzeitig kulturelle Normen respektieren. Zukünftige Forschung wird sich mit gerechtem RL befassen, bei dem marginalisierte Stimmen stärker gewichtet werden, um Inklusivität zu gewährleisten. Weitere Ansätze umfassen Selbstspiel, um Interaktionen zwischen Agenten zu simulieren, Meta-Lernen, um sich an neue Gruppendynamiken anzupassen, und kausale Inferenz, um Korrelation von Kausalität im sozialen Feedback zu unterscheiden. Diese Fortschritte ermöglichen es Macaron und ähnlichen persönlichen AIs, von Einzelinteraktionen zu orchestrierten sozialen Erfahrungen überzugehen und sie zu unschätzbaren Partnern sowohl in der japanischen als auch in der koreanischen Gesellschaft zu machen.