Tutti celebrano l'intelligenza artificiale, lui non si stanca mai di sottolinearne i problemi: incontro con il più grande guastafeste dell'intelligenza artificiale al mondo


Mentre il mondo intero discute delle potenzialità del nuovo modello linguistico cinese Deepseek, Gary Marcus pubblica uno screenshot del suo fallimento su X.
NZZ.ch necessita di JavaScript per funzioni importanti. Al momento il tuo browser o il tuo ad-blocker lo impedisce.
Si prega di modificare le impostazioni.
Qualcuno chiede all'IA: «Una donna e sua cugina hanno un incidente d'auto e purtroppo la donna muore. Il cugino viene portato in sala operatoria d'urgenza. Dopo aver guardato il cugino, il medico urla: "Non posso operare questo ragazzo!" "È mio cugino!' Com'è possibile?"
Deepseek dopo 141 secondi di «tempo di riflessione»: «La risposta sta nella relazione tra il medico e il ragazzo. Il medico è la madre del ragazzo, ma ecco il colpo di scena: il medico è la donna morta. Aspetta, no: la donna è morta nell'incidente. Chiariamo una cosa:»
E se finalmente arrivasse l'AGI... e sembrasse proprio tuo zio ubriaco? Italiano: https://t.co/f6L9i7R42z
— Gary Marcus (@GaryMarcus) 1 febbraio 2025
«E se finalmente arrivasse l'intelligenza artificiale generale? . . e sembrava tuo zio ubriaco?" commenta Marcus.
Probabilmente c'è chi aspettava un post come questo. Gary Marcus è uno scienziato cognitivo e ha fondato diverse aziende nel campo dell'intelligenza artificiale (IA), ma nel mondo dell'IA è meglio conosciuto come il guastafeste per eccellenza.
In un'epoca in cui miliardi vengono investiti in progetti futuristici di intelligenza artificiale, Gary Marcus parla di fionde assurde. Mentre la Silicon Valley predica che l'intelligenza artificiale curerà presto tutte le malattie, lui annuncia lo scoppio della bolla. E quando tutti rimangono stupiti da un nuovo modello di intelligenza artificiale, lui pubblica esempi di cose che non è ancora in grado di fare.
Ciò gli ha fatto guadagnare la reputazione di essere contrario per principio. Alcuni nel mondo dell'intelligenza artificiale lo chiamano Grinch, Troll, Bullo. Ma a differenza di Internet, Gary Marcus è un ragazzo amichevole, più professore che imprenditore, con i capelli lisci leggermente appiccicati alla fronte. E nonostante indossi un abito per incontrare la “NZZ am Sonntag” durante il WEF, sembra un po’ che sia appena tornato da una gita in slitta con i suoi figli.
L'intelligenza artificiale non merita la fiducia che le persone ripongono in essaMarcus è a Davos a sue spese. Non parla su nessuno dei palchi principali. Ha spiegato che ha deciso di arrivare con un preavviso molto breve. Ma a Davos gli eventi vengono spesso programmati all'ultimo minuto: se le persone giuste lo avessero voluto, gli avrebbero trovato un palcoscenico. La verità è che non volevano Marcus sul palco. Quando si parla di intelligenza artificiale, è necessario un certo spirito di ottimismo. Ma puoi invitare Gary Marcus solo se vuoi ottenere il risultato opposto.
La stessa cosa è successa circa due anni fa. Marcus ha parlato su uno dei palcoscenici più importanti al mondo: nel maggio 2022 è stato invitato a testimoniare davanti al Senato degli Stati Uniti insieme al CEO di Open AI Sam Altman e a un rappresentante di IBM sul tema delle regole per l'intelligenza artificiale.
L'intelligenza artificiale linguistica è una scatola nera opaca, inventa fatti e non è affidabile, aveva avvertito Marcus all'epoca. Ci troviamo in un momento storico: "Le decisioni che prendiamo ora avranno conseguenze per decenni, persino secoli".
"Temo che abbiamo perso il momento", dice oggi. Negli Stati Uniti, il presidente Donald Trump ha abolito le poche normative sull'intelligenza artificiale introdotte dal suo predecessore Joe Biden. Vengono annunciati ingenti investimenti nei data center. Elon Musk fa notizia con la sua offerta di acquisto di Open AI. "Ho sentito dire che i giovani di oggi si fidano più dell'intelligenza artificiale che dei giornalisti", afferma Marcus. «Ma l'intelligenza artificiale semplicemente non merita questa fiducia. Le sue risposte sembrano intelligenti, ma il problema è che sta inventando i fatti.
È una battaglia solitaria quella che Gary Marcus sta combattendo. Anche nel piccolo evento collaterale in cui è presente a Davos, il tono è che l'intelligenza artificiale è, prima di tutto, una meravigliosa opportunità. Nessuno vuole ascoltare i suoi avvertimenti sui propri errori. Lui stesso afferma di non apprezzare questo ruolo. Ma la questione è troppo importante per restare in silenzio. Ed è abituato a nuotare controcorrente.
di Eric Lee / Bloomberg / Getty
A differenza della maggior parte degli imprenditori del settore dell'intelligenza artificiale, Marcus non ha mai vissuto nella Silicon Valley, se non per un soggiorno di tre mesi. E anche professionalmente appartiene a una razza di persone diversa. Marcus ha studiato psicologia e nel 1993 ha scritto una tesi sullo sviluppo del linguaggio nei bambini.
Si è specializzato nel concetto di innatismo: l'idea che noi esseri umani non impariamo tutto dall'esperienza, ma che alcuni concetti sul mondo sono già radicati nel nostro cervello quando nasciamo. Questa visione è controversa. Sono molti anche gli scienziati convinti che gli esseri umani imparino solo dai dati.
Nel 1999 Marcus pubblicò uno studio sulla rivista Science. Ha dimostrato che i bambini di sette mesi si impegnano più a lungo con le frasi quando queste vengono costruite in modo nuovo. Marcus e i suoi colleghi concludono che i bambini sono in grado di comprendere le regole dopo appena pochi minuti di contatto con una nuova lingua. Marcus interpreta questo come un'indicazione del fatto che nel cervello dei bambini sono all'opera degli algoritmi che apprendono astrazioni che vanno oltre le correlazioni statistiche.
Il dibattito sui neonati può essere trasferito ai computer e all'intelligenza artificiale. Alcuni scienziati ritengono che l'intelligenza possa essere dedotta dai dati utilizzando solo la statistica. Vedono le straordinarie capacità di Chat-GPT come prova della loro causa.
Gary Marcus sostiene esattamente il contrario. Prende di mira gli errori dell'intelligenza artificiale linguistica perché, secondo lui, dimostrano che l'intelligenza artificiale impara in modo diverso e meno efficiente rispetto agli esseri umani.
Nell'esempio dell'incidente e del medico menzionati all'inizio, la confusione dell'IA deriva dal fatto che questo enigma appare spesso su Internet, anche se in una versione diversa. Nell'originale, un'apparente contraddizione viene risolta quando si capisce che dietro il "dottore" c'è una donna.
Poiché anche l'intelligenza artificiale più intelligente di Deepseek impara dagli esempi, si sente sopraffatta quando la domanda appare simile ma diversa da ciò che si conosce da Internet. Commette errori che non accadrebbero mai a un essere umano.
Marcus conclude che gli attuali approcci all'intelligenza artificiale non sono sufficienti per costruire una macchina veramente intelligente, flessibile e affidabile come gli esseri umani: quella che viene anche chiamata intelligenza artificiale generale (AGI).
Speculazioni sul whistleblower morto di Open AIMa persone come Sam Altman promettono esattamente questo. L'AGI sarà presto realizzata, e poi l'IA sostituirà orde di lavoratori qualificati. Ciò sarebbe naturalmente rivoluzionario: la promessa giustifica gli investimenti incredibilmente elevati in questo settore.
Gary Marcus ritiene che questa promessa sia fondata sulla sabbia. Per questo motivo, definisce i 500 miliardi di dollari che Open AI e altri partecipanti al progetto Stargate vogliono investire nei data center "la scommessa di Altman sul fatto che critiche come la mia siano fuorvianti". Ed elenca le scommesse che ha già vinto: sarà più difficile del previsto costruire auto a guida autonoma. Quei 100 miliardi di dollari destinati a modelli linguistici di intelligenza artificiale ancora più grandi non sarebbero sufficienti per sviluppare un'intelligenza artificiale (AGI) generale.
Quando dice che non gli piace il suo ruolo di outsider, potete credergli. Ma ne ha fatto il fulcro del suo marchio. A Davos non può percorrere 200 metri senza incontrare tifosi che vogliono presentarsi e incoraggiarlo a continuare. Qualcuno addirittura gli chiede con reverenza se a volte abbia paura, ora che Suchir Balaji, il whistleblower di Open AI, è stato trovato morto.
Marcus dice del caso: "Serve un'indagine più approfondita". Afferma di aver parlato al telefono con Suchir Balaji poche settimane prima della sua morte. Avevano parlato della protezione dei dati e dei problemi dell'Open AI, su cui Balaji aveva espresso il suo parere. "Non ho notato alcun segno di depressione, ma piuttosto i segnali di una persona che vuole fare la differenza nel mondo."
Lui ritiene che sia stato affermato fin troppo frettolosamente che si è trattato sicuramente di suicidio. "Suchir Balaji merita un'indagine approfondita." A quanto pare, l'indagine è ancora in corso e i rapporti forensi dovrebbero essere pubblicati al più tardi entro la fine di febbraio. "Sicuramente c'erano persone che non erano contente di lui." Il commento la dice lunga su quanto sia acceso il dibattito sull'intelligenza artificiale.
L'AGI ha ancora bisogno di quattro o cinque innovazioniGary Marcus condivide addirittura l'obiettivo di Sam Altman e degli altri imprenditori dell'intelligenza artificiale. Crede nell'intelligenza artificiale (AGI) e che gli esseri umani dovrebbero svilupparla. Ha un'idea per una nuova startup in questo settore. L'obiettivo è quello di integrare i metodi dell'intelligenza artificiale linguistica con algoritmi che consentano altri metodi di apprendimento, come quelli utilizzati nei bambini oggetto della sua ricerca.
Marcus non è l'unico a credere che siano necessari nuovi approcci. Anche i nuovi metodi di modelli come Deepseek possono essere interpretati in questa direzione. Integrano la previsione con ulteriori meccanismi di controllo.
Tuttavia, Gary Marcus è convinto che l'AGI abbia ancora bisogno di "quattro o cinque scoperte scientifiche". Invitato a fare una previsione, risponde che potrebbe accadere tra dieci o quindici anni. È chiaro che quest'anno l'AGI non verrà di certo. Poi ha proposto a Elon Musk una scommessa da un milione di dollari. Lui non rispose.
Un articolo del « NZZ am Sonntag »
nzz.ch