Sam Altman afferma che gli odiatori del GPT-5 hanno sbagliato tutto

Il lancio ad agosto del modello linguistico GPT-5 di OpenAI è stato un vero disastro. Durante la diretta streaming si sono verificati dei problemi, con il modello che generava grafici con numeri palesemente imprecisi. In una sessione di "Amazon Live" su Reddit con i dipendenti di OpenAI, gli utenti si sono lamentati del fatto che il nuovo modello non fosse intuitivo e hanno chiesto all'azienda di ripristinare la versione precedente. Soprattutto, i critici hanno lamentato che GPT-5 non fosse all'altezza delle aspettative stratosferiche che OpenAI alimenta da anni. Promesso come un punto di svolta, GPT-5 avrebbe potuto effettivamente giocare meglio. Ma era pur sempre lo stesso gioco.
Gli scettici hanno colto l'occasione per proclamare la fine del boom dell'intelligenza artificiale. Alcuni hanno addirittura previsto l'inizio di un altro inverno dell'intelligenza artificiale. "GPT-5 è stato il sistema di intelligenza artificiale più pubblicizzato di tutti i tempi", mi ha detto Gary Marcus, scoppiatore di bolle a tempo pieno, durante il suo fitto programma di giri di vittoria. "Doveva offrire due cose, l'intelligenza artificiale generale e una cognizione di livello PhD, e non ha offerto nessuna delle due". Inoltre, afferma, il nuovo modello apparentemente poco brillante è la prova che il biglietto di OpenAI per l'intelligenza artificiale generale – ovvero l'aumento massiccio di dati e chipset per rendere i suoi sistemi esponenzialmente più intelligenti – non può più essere timbrato. Per una volta, le opinioni di Marcus sono state condivise da una parte considerevole della comunità dell'intelligenza artificiale. Nei giorni successivi al lancio, GPT-5 sembrava la versione AI della New Coke.
Sam Altman non ci sta. Un mese dopo il lancio, entra in una sala conferenze della nuova sede centrale dell'azienda nel quartiere Mission Bay di San Francisco, desideroso di spiegare a me e alla mia collega Kylie Robison che GPT-5 è tutto ciò che aveva pubblicizzato e che tutto procede bene nella sua epica ricerca dell'AGI. "Le vibrazioni erano un po' negative al lancio", ammette. "Ma ora sono fantastiche". Sì, fantastiche . È vero che le critiche si sono placate. In effetti, il recente rilascio da parte dell'azienda di uno strumento allucinante per generare impressionanti video di intelligenza artificiale ha distolto l'attenzione dal deludente debutto di GPT-5. Il messaggio di Altman, tuttavia, è che i detrattori sono dalla parte sbagliata della storia. Il viaggio verso l'AGI, insiste, è ancora in carreggiata.
Gioco dei numeriI critici potrebbero vedere GPT-5 come la fine di un'estate di intelligenza artificiale, ma Altman e il suo team sostengono che consolida la tecnologia di intelligenza artificiale come un tutor indispensabile, una fonte di informazioni che uccide i motori di ricerca e, soprattutto, un collaboratore sofisticato per scienziati e programmatori. Altman sostiene che gli utenti stiano iniziando a vederla dal suo punto di vista. "Con GPT-5, per la prima volta la gente dice 'Caspita. Sta facendo questo importante pezzo di fisica'. O un biologo dice 'Wow, mi ha davvero aiutato a capire questa cosa'", afferma. "Sta succedendo qualcosa di importante che non accadeva con nessun modello precedente a GPT-5, ovvero l'inizio dell'intelligenza artificiale che aiuta ad accelerare il tasso di scoperta di nuova scienza". (OpenAI non ha citato chi siano questi fisici o biologi.)
Allora perché questa tiepida accoglienza iniziale? Altman e il suo team hanno individuato diverse ragioni. Una, dicono, è che da quando GPT-4 è stato lanciato, l'azienda ha rilasciato versioni che sono state di per sé rivoluzionarie, in particolare le sofisticate modalità di ragionamento aggiunte. "Il salto da 4 a 5 è stato più grande del salto da 3 a 4", afferma Altman. "Abbiamo semplicemente avuto un sacco di novità lungo il percorso". Il presidente di OpenAI, Greg Brockman, concorda: "Non mi sorprende che molte persone abbiano avuto questa reazione [delusa], perché ci siamo fatti avanti".
OpenAI afferma inoltre che, poiché GPT-5 è ottimizzato per usi specializzati come la scienza o la programmazione, gli utenti comuni impiegano un po' di tempo ad apprezzarne le virtù. "La maggior parte delle persone non è composta da ricercatori di fisica", osserva Altman. Come spiega Mark Chen, responsabile della ricerca di OpenAI, a meno che non siate dei geni della matematica, non vi importerà molto che GPT-5 si classifichi tra i primi cinque "Olimpionici della Matematica", mentre l'anno scorso il sistema si è classificato tra i primi 200.
Per quanto riguarda l'accusa secondo cui GPT-5 dimostri che la scalabilità non funziona, OpenAI sostiene che derivi da un malinteso. A differenza dei modelli precedenti, GPT-5 non ha ottenuto i suoi principali progressi da un set di dati enormemente più ampio e da tonnellate di elaborazione in più. Il nuovo modello ha ottenuto i suoi vantaggi dall'apprendimento per rinforzo, una tecnica che si basa sul feedback di esperti umani. Brockman afferma che OpenAI ha sviluppato i suoi modelli al punto da poter produrre i propri dati per alimentare il ciclo di apprendimento per rinforzo. "Quando il modello è stupido, tutto ciò che si vuole fare è addestrarne una versione più grande", afferma. "Quando il modello è intelligente, si vuole campionare da esso. Si vuole addestrare sui suoi stessi dati".
Altman e soci sembrano colpiti dalle critiche a GPT-5 e rispondono con incredulità al fatto che la gente ritenga l'ipotesi della scalabilità vana. OpenAI ovviamente non ha rinunciato alla scalabilità su larga scala. Questo è il motivo per cui sta spendendo centinaia di miliardi di dollari per non dover costruire giganteschi data center ad Abilene, in Texas, e in altre località. Brockman sottolinea che finché queste gigantesche fabbriche di calcolo non saranno operative, non ci sarà semplicemente abbastanza potenza di fuoco per compiere i prossimi grandi passi avanti. "La sfida della scalabilità è ardua", afferma. "È davvero, davvero difficile da realizzare, come costruire un razzo più grande: costruire un rocker due volte più grande è probabilmente dieci volte più difficile".
Quando parlo di Marcus ad Altman, è visibilmente offeso. "È una domanda seria?" chiede. Beh, non è solo Gary, dico. Altman si raddrizza sulla sedia. "Quello che posso dirti con certezza è che GPT-6 sarà significativamente migliore di GPT-5, e GPT-7 sarà significativamente migliore di GPT-6. E abbiamo un ottimo curriculum in questo campo."
AGI o fallimentoAltman ha trascorso molti mesi quest'anno a parlare di quanto l'AGI fosse imminente. Ultimamente, tuttavia, OpenAI ha allontanato le persone dall'idea che l'AGI sia una destinazione. Ora è un processo. Sembra logico, ma questa modifica retorica libera l'azienda da una scadenza. "Abbiamo commesso quasi un errore di categoria pensando a OpenAI come a un progetto con una data di fine definita", afferma Brockman. "Pensavamo: 'OK, se costruiamo l'AGI e la rendiamo utile all'umanità, è quello che siamo qui per fare'. Non è più così che la pensiamo". Ora, dice, si tratta più di un'implementazione senza fine. "La missione riguarda davvero questo impatto continuo e la trasformazione dell'economia in questo mondo alimentato dall'intelligenza artificiale. E anche se l'AGI è un punto di riferimento – ragionevolmente ben definito, forse un po' vago – c'è questa crescita esponenziale continua".
Quando parlo di AGI con Altman, lui dice che la discussione potrebbe essere poco utile, dato che le persone hanno idee molto diverse sul suo significato. Ricorrendo a uno dei suoi pezzi preferiti di jiu-jitsu da intervista, ci chiede di condividere le nostre definizioni di AGI, come se facessero qualche differenza per OpenAI. Nel suo statuto, OpenAI definisce l'AGI come "sistemi altamente autonomi che superano gli esseri umani nei lavori economicamente più preziosi". Altman ora afferma che la sua visione si è evoluta oltre lo statuto. Il suo pensiero sull'AGI sembra incentrarsi sull'acume scientifico. "Possiamo comprendere cosa significhi per la maggior parte del lavoro economico", afferma. "Ma la definizione di progresso scientifico è davvero un grosso problema per il mondo. È difficile capirlo, quindi ne parliamo meno".
GPT-5, quindi, rappresenta un modesto passo verso questo traguardo. "Non direi che GPT-5 sia come fare scienza significativa, ovviamente no", afferma Altman. "Ma c'è un barlume di speranza, e penso che entro il 6 o il 7 ne vedremo di più".
Nonostante la "vaghezza" dell'AGI, come la definisce Brockman, OpenAI sta vivendo un momento di forte crescita grazie all'acronimo. Letteralmente nella stanza con Altman, mentre rifletteva sulle definizioni, c'era il suo addetto alle pubbliche relazioni, il cui portatile aveva un adesivo con la scritta "SENTI L'AGI". Un chiosco di merchandising al primo piano della sede centrale dell'azienda vende magliette con la stessa scritta. Nei corridoi sono appesi poster pubblicitari che evidenziano le problematiche del percorso verso l'AGI e spiegano fenomeni come la superintelligenza e la "pubertà dell'IA", definita come "la fase di transizione in cui un sistema passa da un'IA ristretta a un'intelligenza più generale, simile a quella umana, con comportamenti imprevedibili o difficili". Che l'AGI sia un processo o una destinazione, OpenAI è legata a essa per sempre. Ed è disposta a spendere centinaia di miliardi di dollari per raggiungere questo obiettivo.
Ulteriori informazioni sono fornite da Kylie Robison.
Questa è un'edizione della newsletter Backchannel di Steven Levy . Leggi le newsletter precedenti qui.
wired