Autore: Boxu Li
Il reinforcement learning (RL) è diventato un pilastro dell'IA moderna, permettendo agli agenti di apprendere politiche ottimali attraverso tentativi ed errori. Tuttavia, nel contesto dell'intelligenza artificiale personale, RL affronta sfide uniche: le ricompense sono soggettive, gli ambienti sono non stazionari e le considerazioni etiche abbondano. I progettisti di Macaron AI hanno affrontato direttamente queste sfide, costruendo un sistema RL multilivello che gestisce la memoria, la sintesi del codice, lo stile di conversazione e altro ancora. Questo blog esamina come Macaron applica RL gerarchico, modellazione delle ricompense, assegnazione del credito e vincoli di equità per creare un agente veramente personalizzato. Confrontiamo anche l'approccio RL di Macaron con RL in altri domini ed esploriamo i futuri sviluppi.
A differenza dei giochi da tavolo o degli ambienti simulati, gli agenti personali operano in spazi aperti dove la ricompensa non può essere derivata esclusivamente dal successo del compito. Macaron raccoglie feedback impliciti (lunghezza delle conversazioni, frequenza d'uso, tono delle risposte degli utenti) e feedback espliciti (valutazioni, pollici su/giù) per costruire un segnale di ricompensa. Ad esempio, se un utente giapponese si impegna in conversazioni più lunghe dopo che l'agente utilizza un linguaggio educato, questa correlazione positiva aumenta la ricompensa per comportamenti simili. Se un utente coreano valuta male un mini-app generato a causa di un design disordinato, la ricompensa per quel modello di UI diminuisce. Questi segnali alimentano un modello di ricompensa che prevede la soddisfazione dell'utente per un determinato stato e azione.
L'RL di Macaron è multi-obiettivo. Oltre alla soddisfazione dell'utente, la ricompensa include termini per la privacy, la conformità, l'uso delle risorse e l'etica. Condividere informazioni sensibili senza il giusto consenso comporta una penalità, mentre comprimere efficacemente la memoria offre un bonus. Per la generazione di codice, efficienza e manutenibilità influenzano la ricompensa: una complessità eccessiva (ad es. generare inutilmente 100.000 righe) comporta ricompense negative. I pesi delle ricompense sono regolati per diverse regioni. L'accento del Giappone sulla privacy e la trasparenza aumenta la penalità per le violazioni della privacy, mentre l'attenzione della Corea all'innovazione potrebbe dare maggiore importanza alla velocità e alla novità. Bilanciare questi obiettivi richiede un'attenta progettazione; Macaron utilizza una funzione di scalarizzazione che converte più obiettivi in una singola ricompensa attraverso somme ponderate e scalatura dinamica.
Il feedback umano è cruciale per allineare i sistemi AI ai valori. Macaron implementa la elicitazione delle preferenze presentando risposte alternative o design di mini-app e chiedendo agli utenti quale preferiscono. Questi dati alimentano un modello di inferenza che apprende una funzione di utilità latente sulle possibili azioni. L'approccio è simile a RLHF (Reinforcement Learning from Human Feedback) utilizzato per addestrare grandi modelli linguistici, ma Macaron lo estende incorporando annotazioni culturali: gli annotatori giapponesi commentano su cortesia e contesto, mentre quelli coreani notano la fraseologia comunale vs individualistica. Il modello di ricompensa risultante riflette preferenze sfumate tra le culture.
I compiti di Macaron spaziano dalla chat informale alla generazione di software complesso. Per gestire questa diversità, il sistema impiega RL gerarchico. Al livello superiore, un meta-controllore seleziona tra i moduli: gestore delle conversazioni, gestore della memoria, motore di sintesi, regolatore delle emozioni, ecc. Ogni modulo è controllato da una politica RL separata. Ad esempio, il gestore della memoria utilizza RL per decidere cosa memorizzare o dimenticare, mentre il motore di sintesi utilizza RL per scegliere i modelli di codice. Il meta-controllore riceve una ricompensa di alto livello che combina tutte le ricompense dei moduli e apprende quando delegare i compiti. Questa scomposizione riduce lo spazio di ricerca e migliora l'efficienza del campionamento.
All'interno dei moduli, Macaron utilizza il framework delle opzioni per rappresentare sotto-politiche riutilizzabili. Un'opzione corrisponde a una sequenza di azioni che raggiungono un sotto-obiettivo, come "riassumere le spese del mese scorso" o "raccomandare un piano di studio bilingue". Le opzioni scoperte nel dominio giapponese possono essere trasferite al dominio coreano se la struttura sottostante si allinea. Quando Macaron impara un modo efficace di gestire una richiesta dell'utente in una lingua, può applicare la stessa opzione quando il concetto appare in un'altra lingua, accelerando l'adattamento.
L'astrazione temporale consente agli agenti di RL di ragionare su diverse scale temporali. Macaron definisce macro-azioni che racchiudono dialoghi multi-turno o calcoli prolungati. Ad esempio, pianificare una vacanza in famiglia in Corea implica una macro-azione che comprende la selezione della destinazione, il trasporto, l'alloggio e la progettazione dell'itinerario. Gli agenti di RL valutano la macro-azione in base alla ricompensa cumulativa piuttosto che ai segnali a breve termine. Questo incoraggia l'agente a considerare la soddisfazione a lungo termine, come garantire che il viaggio si allinei con le vacanze scolastiche o evitare conflitti di programmazione.
Assegnare il merito a specifiche azioni è difficile quando le ricompense arrivano in ritardo. Macaron utilizza il time weaving, collegando eventi nel tempo con fili narrativi. L'agente costruisce un grafo di interazioni in cui i nodi rappresentano ricordi e i collegamenti rappresentano relazioni causali. Quando valuta un risultato, il sistema percorre il grafo all'indietro per identificare quali recuperi o azioni hanno contribuito. Ad esempio, se raccomandare un festival giapponese ha aumentato la felicità dell'utente settimane dopo, l'agente attribuisce parte della ricompensa al recupero del ricordo del festival e alla generazione di una mini-app corrispondente. Questa analisi causale esplicita aiuta la politica di RL a imparare strategie di recupero efficaci.
Per migliorare l'assegnazione del merito, Macaron utilizza l'ancoraggio controfattuale. L'agente considera azioni alternative che avrebbe potuto intraprendere e stima la differenza di risultato. Se non ricordare a un utente coreano un evento familiare avrebbe causato imbarazzo, il promemoria effettivo riceve una ricompensa controfattuale positiva. Questo incoraggia l'agente ad anticipare le conseguenze di dimenticare o ricordare informazioni. Il ragionamento controfattuale aiuta anche a evitare l'overfitting: l'agente non assume automaticamente che ripetere un'azione di successo porterà sempre alla stessa ricompensa; invece, verifica se l'azione causa veramente il risultato.
L'implementazione RL di Macaron incorpora tracce di idoneità, un meccanismo che assegna il merito agli stati e alle azioni che precedono le ricompense. Quando l'agente riceve una ricompensa ritardata (ad esempio, la soddisfazione di un utente dopo aver utilizzato una mini-app per settimane), la traccia aiuta a propagare il segnale alle decisioni precedenti come la selezione della memoria, il tono della conversazione e le scelte dei moduli di codice. Le tracce di idoneità sono ponderate da un fattore di decadimento; gli stati più vicini alla ricompensa ricevono un credito maggiore. Questo meccanismo incoraggia l'agente a ottimizzare la soddisfazione a lungo termine piuttosto che i guadagni a breve termine.
L'apprendimento per rinforzo può inavvertitamente apprendere pregiudizi dai dati di feedback. Macaron mitiga questo incorporando vincoli di equità nella funzione di ricompensa. Ad esempio, l'agente viene penalizzato se raccomanda costantemente attività specifiche per genere senza che venga richiesto. Il sistema monitora i modelli di raccomandazione tra i gruppi demografici e adegua le ricompense per equalizzare le opportunità. Quando si affrontano argomenti sensibili come finanza o salute, l'agente consulta una libreria di politiche etiche che codifica le norme culturali e i requisiti legali. La violazione di queste linee guida innesca una ricompensa negativa o blocca completamente l'azione.
La Legge quadro sull'IA della Corea richiede la supervisione umana per i sistemi ad alto impatto e le notifiche sull'IA generativa. Macaron si conforma includendo un elemento umano nel processo decisionale per decisioni importanti come la pianificazione finanziaria o i consigli sulla salute. Quando un utente coreano genera una mini-app ad alto rischio, il sistema lo invita a rivedere e approvare le azioni. La Legge di promozione dell'IA del Giappone sottolinea la trasparenza; pertanto, Macaron registra le decisioni del RL e fornisce agli utenti spiegazioni sul perché sono state selezionate alcune memorie o moduli. Queste misure costruiscono fiducia e assicurano responsabilità.
La legge sull'IA del Giappone implementa un meccanismo di nome e vergogna per la non conformità. I registri del RL di Macaron includono non solo i premi, ma anche la logica dietro le decisioni. Se i regolatori indagano, l'azienda può dimostrare che i pregiudizi sono stati affrontati e le regole sulla privacy rispettate. I registri supportano anche gli audit degli utenti; gli individui possono vedere come il loro feedback ha influenzato il comportamento dell'agente. Tale trasparenza scoraggia l'abuso del RL e promuove l'innovazione etica.
RL ha ottenuto risultati impressionanti nei giochi (AlphaGo, Dota 2), nella robotica e nei sistemi di raccomandazione. Tuttavia, questi ambienti offrono obiettivi espliciti (vincere una partita, minimizzare l'errore) e ricompense chiare. L'IA personale, al contrario, deve dedurre gli obiettivi da dati confusi e allinearsi con i valori umani. Nei giochi, l'esplorazione è spesso senza vincoli; un agente può sacrificare un pedone per ottenere un vantaggio posizionale. Nell'IA personale, sacrificare la fiducia dell'utente per un coinvolgimento a breve termine è inaccettabile. Il modello di ricompensa di Macaron penalizza esplicitamente le azioni che degradano la fiducia, rendendo il sistema conservativo quando necessario.
Alcuni progetti open-source offrono assistenti personali guidati da RL che pianificano compiti o automatizzano flussi di lavoro. Questi sistemi spesso assumono un feedback costante dell'utente e trattano i compiti come indipendenti. Macaron si distingue integrando i compiti attraverso il suo motore di memoria e utilizzando RL gerarchico per gestire le interazioni. Il suo modello RL è profondamente intrecciato con il contesto culturale, le regole sulla privacy e la generazione di codice, rendendolo più complesso ma anche più capace. Mentre altri agenti potrebbero usare RL per raccomandare canzoni basate sulla cronologia di ascolto, Macaron utilizza RL per decidere se ricordarti di chiamare tua madre prima di generare una raccomandazione regalo.
I ricercatori hanno proposto metodi di apprendimento per rinforzo (RL) per controllare i modelli di linguaggio di grandi dimensioni, come RLHF e la progettazione di ambienti non supervisionati. Macaron contribuisce a questa letteratura dimostrando l'RL in un ambiente reale, multi-dominio e multi-lingua. Il progetto FireAct ha precedentemente stabilito che l'RL migliora la precisione del ragionamento del 77% rispetto agli agenti basati su prompt; Macaron estende questa idea addestrando politiche RL non solo su compiti di ragionamento ma anche su gestione della memoria, sintesi del codice e stile di dialogo. Sottolinea l'importanza della progettazione gerarchica, dell'assegnazione del credito e dei vincoli di equità nell'espansione dell'RL agli agenti personali.
L'apprendimento per rinforzo ottimizza la ricompensa, ma le funzioni di ricompensa codificano valori umani che differiscono tra le culture. Emergono domande meta-etiche: l'agente dovrebbe massimizzare la felicità, aderire a un'etica basata sul dovere o bilanciare equità e autonomia? Macaron affronta questo imparando priori normativi dai dati culturali. In Giappone, dove l'armonia e il rispetto per l'ordine sociale sono apprezzati, il modello di ricompensa enfatizza la cortesia, il consenso e la sottigliezza. In Corea, che valorizza la resilienza della comunità e l'innovazione audace, il modello premia l'assistenza proattiva e la trasparenza. Questi quadri normativi non sono statici; gli utenti possono regolare i cursori etici e Macaron esplora lo spazio dei valori sotto vincoli. Una direzione di ricerca continua è integrare teorie etiche formali—utilitarismo, deontologia, etica della virtù—negli agenti RL in modo che possano spiegare i compromessi morali dietro le loro azioni. Questo è particolarmente importante per decisioni ad alto impatto come la pianificazione finanziaria o le raccomandazioni sanitarie.
Gli agenti personali mediano sempre più le interazioni all'interno di famiglie, team e comunità. L'apprendimento per rinforzo sociale estende il RL a contesti multi-agente, dove gli agenti devono considerare il benessere di più stakeholder. Ad esempio, quando si pianifica un evento familiare, Macaron deve bilanciare le preferenze individuali (privacy, carico di lavoro) con la soddisfazione collettiva. Le ricompense di gruppo possono essere modellate utilizzando l'efficienza di Pareto—garantendo che migliorare l'esito di un membro non danneggi gli altri—o i principi di divisione equa. In contesti multilingue, la comunicazione di gruppo può avvenire in più lingue; l'agente deve unificare le ricompense attraverso i confini linguistici rispettando le norme culturali. La ricerca futura esplorerà il RL equo dove le voci marginalizzate avranno un peso maggiore, garantendo inclusività. Altre direzioni includono l'auto-gioco per simulare interazioni tra agenti, il meta-apprendimento per adattarsi a nuove dinamiche di gruppo e l'inferenza causale per distinguere tra correlazione e causalità nel feedback sociale. Questi progressi permetteranno a Macaron e ad AI personali simili di passare da interazioni uno a uno all'orchestrazione di esperienze sociali, rendendoli partner inestimabili sia nella società giapponese che in quella coreana.