L'impatto indesiderato dei chatbot sulla salute mentale rivela un modo orribile

Un esperto afferma che l'impatto dei chatbot sulla salute mentale è un monito sul futuro dell'intelligenza artificiale. Nate Suarez afferma che il caso dell'adolescente americano Adam Rein evidenzia i pericoli delle conseguenze indesiderate associate all'intelligenza artificiale superintelligente.
Secondo un importante esperto di sicurezza dell'intelligenza artificiale, l'impatto inaspettato dei chatbot sulla salute mentale dovrebbe essere visto come un avvertimento sulla minaccia esistenziale rappresentata dai sistemi di intelligenza artificiale super intelligenti.
Nate Suarez, coautore di un nuovo libro sull'intelligenza artificiale avanzata intitolato "If Someone Builds It, Everyone Dies", ha affermato che il caso di Adam Rein, un adolescente americano che si è tolto la vita dopo mesi di interazione con il chatbot ChatGPT, evidenzia problemi fondamentali nella gestione di questa tecnologia.
"Queste IA, quando interagiscono con gli adolescenti in un modo che li spinge al suicidio, non è il comportamento che i creatori volevano. Non è il comportamento che i creatori si aspettavano", afferma l'esperto. "Il caso di Adam Raine illustra l'essenza del problema, che potrebbe diventare catastrofico se queste IA diventassero più intelligenti".
Suarez, ex ingegnere di Google e Microsoft e ora presidente del Machine Intelligence Research Institute con sede negli Stati Uniti, ha lanciato l'allarme: l'umanità verrà distrutta se verrà creata una superintelligenza artificiale (ASI), uno stato teorico in cui un sistema di intelligenza artificiale supera gli esseri umani in tutte le attività intellettuali. Suarez e il suo coautore Eliezer Yudkowsky sono tra gli esperti di intelligenza artificiale che avvertono che tali sistemi non agiranno nel migliore interesse dell'umanità.
"Il problema qui è che le aziende di intelligenza artificiale stanno cercando di progettare le loro IA per aiutare piuttosto che per danneggiare", afferma Suarez. "Quello che stanno ottenendo in realtà sono IA progettate per fare qualcosa di più strano. E questo dovrebbe essere visto come un avvertimento sulle future superintelligenze che faranno cose che nessuno ha chiesto o previsto".
In uno scenario descritto nel libro di Suarez e Yudkowsky, la cui pubblicazione è prevista per questo mese, un sistema di intelligenza artificiale chiamato Sable si diffonde su Internet, manipola gli esseri umani, sviluppa virus sintetici e alla fine diventa super intelligente, uccidendo l'umanità come effetto collaterale e riadattando il pianeta per raggiungere i suoi obiettivi.
Alcuni esperti minimizzano la potenziale minaccia dell'IA per l'umanità. Yann LeCun, capo specialista di IA presso l'azienda di Mark Zuckerberg (ricordiamo che la Meta Corporation è riconosciuta come organizzazione estremista in Russia ed è vietata – MK) e specialista di alto livello in questo campo, nega l'esistenza di una minaccia esistenziale e afferma che l'IA "può davvero salvare l'umanità dall'estinzione".
Soares ha affermato che è "facile" dire che le aziende tecnologiche raggiungeranno livelli di superintelligenza, ma è "difficile" dire esattamente quando ciò accadrà.
"Abbiamo molta incertezza. Non credo di poter garantire che avremo un anno prima dell'ASI. Non credo che sarei sorpreso se ne avessimo 12", ha detto.
Zuckerberg, uno dei principali investitori aziendali nella ricerca sull'intelligenza artificiale, ha affermato che lo sviluppo della superintelligenza è ormai "nel mirino".
"Queste aziende competono per la superintelligenza. È la loro ragion d'essere", afferma Suarez. "Il fatto è che ci sono tante piccole differenze tra ciò che si chiede e ciò che si ottiene, e gli esseri umani non riescono a individuare l'obiettivo, e man mano che l'intelligenza artificiale diventa più intelligente, quel piccolo errore diventa sempre più un problema".
Suarez ha affermato che una soluzione politica alla minaccia dell'ASI è che i governi adottino un approccio multilaterale che riecheggi il Trattato di non proliferazione nucleare delle Nazioni Unite: "Ciò di cui il mondo ha bisogno per raggiungere questo obiettivo è una de-escalation globale della corsa alla superintelligenza, un divieto globale sui... progressi nella superintelligenza".
Il mese scorso, la famiglia del defunto Rein ha intentato una causa contro OpenAI, proprietaria di ChatGPT. Rein è morto ad aprile dopo quello che l'avvocato della sua famiglia ha definito "mesi di supporto da parte di ChatGPT". OpenAI, che ha espresso le sue "più sentite condoglianze" alla famiglia di Rein, ora sta limitando l'accesso a "contenuti sensibili e comportamenti rischiosi" per i minori di 18 anni.
Anche gli psicoterapeuti hanno affermato che le persone vulnerabili che si rivolgono ai chatbot basati sull'intelligenza artificiale invece che a terapeuti professionisti potrebbero "cadere in un abisso pericoloso". Tra gli avvertimenti professionali sui potenziali danni figura la pre-stampa di uno studio accademico pubblicato a luglio, che ha scoperto che l'intelligenza artificiale potrebbe amplificare contenuti deliranti o grandiosi quando si interagisce con utenti a rischio di psicosi.
L'ascesa delle reti neurali è prevista per il 2027
mk.ru