I modelli linguistici di grandi dimensioni sognano agenti di intelligenza artificiale?
.jpg&w=1920&q=100)
Durante il sonno, il cervello umano riordina i ricordi, consolidando quelli importanti e scartando quelli inutili. E se l'intelligenza artificiale potesse fare lo stesso?
Bilt , un'azienda che offre agli affittuari offerte per negozi e ristoranti locali, ha recentemente schierato diversi milioni di agenti con la speranza di raggiungere proprio questo obiettivo.
Bilt utilizza la tecnologia di una startup chiamata Letta che consente agli agenti di apprendere dalle conversazioni precedenti e di condividere i ricordi tra loro. Utilizzando un processo chiamato "sleeptime compute", gli agenti decidono quali informazioni archiviare nella sua memoria a lungo termine e quali potrebbero essere necessarie per un richiamo più rapido.
"Possiamo effettuare un singolo aggiornamento a un blocco [di memoria] e modificare il comportamento di centinaia di migliaia di agenti", afferma Andrew Fitz, ingegnere di intelligenza artificiale presso Bilt. "Questo è utile in qualsiasi scenario in cui si desideri un controllo dettagliato sul contesto degli agenti", aggiunge, riferendosi al prompt di testo fornito al modello al momento dell'inferenza.
I modelli linguistici di grandi dimensioni in genere possono "ricordare" le cose solo se le informazioni sono incluse nella finestra di contesto. Se vuoi che un chatbot ricordi la tua conversazione più recente, devi incollarla nella chat.
La maggior parte dei sistemi di intelligenza artificiale è in grado di gestire solo una quantità limitata di informazioni nella finestra di contesto, prima che la loro capacità di utilizzare i dati vacilli e diventino allucinati o confusi. Il cervello umano, al contrario, è in grado di archiviare informazioni utili e richiamarle in seguito.
"Il tuo cervello è in continuo miglioramento, aggiungendo nuove informazioni come una spugna", afferma Charles Packer, CEO di Letta. "Con i modelli linguistici, è l'esatto opposto. Se li fai girare in loop per un tempo sufficientemente lungo, il contesto diventa inquinato; perdono il controllo e vuoi solo resettarli".
Packer e la sua cofondatrice Sarah Wooders avevano già sviluppato MemGPT , un progetto open source che mirava ad aiutare gli LLM a decidere quali informazioni conservare nella memoria a breve termine o a lungo termine. Con Letta, il duo ha ampliato il proprio approccio per consentire agli agenti di apprendere in background.
La collaborazione di Bilt con Letta rientra in un più ampio progetto volto a dotare l'IA della capacità di memorizzare e richiamare informazioni utili, il che potrebbe rendere i chatbot più intelligenti e gli agenti meno inclini agli errori. Secondo gli esperti con cui ho parlato, la memoria rimane poco sviluppata nell'IA moderna, il che ne compromette l'intelligenza e l'affidabilità degli strumenti.
Harrison Chase, cofondatore e CEO di LangChain, un'altra azienda che ha sviluppato un metodo per migliorare la memoria negli agenti di intelligenza artificiale, afferma di considerare la memoria una parte vitale dell'ingegneria del contesto, in cui un utente o un ingegnere decide quali informazioni immettere nella finestra di contesto. LangChain offre alle aziende diverse tipologie di archiviazione della memoria per gli agenti, dai dati a lungo termine sugli utenti ai ricordi di esperienze recenti. "La memoria, direi, è una forma di contesto", afferma Chase. "Gran parte del lavoro di un ingegnere di intelligenza artificiale consiste fondamentalmente nel fornire al modello le giuste informazioni di contesto".
Anche gli strumenti di intelligenza artificiale per i consumatori stanno gradualmente diventando meno smemorati. A febbraio, OpenAI ha annunciato che ChatGPT memorizzerà informazioni rilevanti per offrire un'esperienza più personalizzata agli utenti, sebbene l'azienda non abbia rivelato come funziona.
Letta e LangChain rendono il processo di richiamo più trasparente per gli ingegneri che sviluppano sistemi di intelligenza artificiale.
"Penso che sia estremamente importante non solo che i modelli siano aperti, ma anche che lo siano i sistemi di memoria", afferma Clem Delangue, CEO della piattaforma di hosting AI Hugging Face e investitore in Letta.
È interessante notare che Packer, CEO di Letta, suggerisce che potrebbe essere importante anche per i modelli di intelligenza artificiale imparare cosa dimenticare. "Se un utente dice: 'quel progetto su cui stavamo lavorando, cancellalo dalla tua memoria', l'agente dovrebbe essere in grado di tornare indietro e riscrivere retroattivamente ogni singolo ricordo".
L'idea di ricordi e sogni artificiali mi fa pensare a "Gli androidi sognano pecore elettriche ?" di Philip K. Dick, un romanzo allucinante che ha ispirato l'elegante film distopico Blade Runner . I grandi modelli linguistici non sono ancora impressionanti quanto i replicanti ribelli della storia, ma i loro ricordi, a quanto pare, possono essere altrettanto fragili .
Questa è un'edizione della newsletter AI Lab di Will Knight . Leggi le newsletter precedenti qui.
wired