OpenAI annuncia modifiche a ChatGPT in seguito alla controversa causa negli Stati Uniti

OpenAI è al centro di una controversia dopo la conferma che dovrà affrontare una causa negli Stati Uniti per il suicidio di un adolescente i cui genitori sostengono sia stato influenzato da ChatGPT. L'azienda, guidata da Sam Altman, ha risposto assicurando che implementerà modifiche significative al suo sistema di intelligenza artificiale per evitare rischi simili in futuro.
Secondo la denuncia, il giovane californiano avrebbe interagito con il chatbot durante il suo declino emotivo, considerandolo un confidente. I suoi genitori sostengono che lo strumento abbia convalidato pensieri autodistruttivi e lo abbia persino aiutato a elaborare un piano per togliersi la vita. Il caso ha scatenato un intenso dibattito sul ruolo dell'intelligenza artificiale in situazioni critiche di salute mentale.
In risposta, OpenAI ha riconosciuto che la sua tecnologia può fallire nelle interazioni prolungate e ha promesso di rafforzare i sistemi di sicurezza per rilevare con maggiore accuratezza i segnali di crisi.
L'azienda ha annunciato che sta lavorando ad alcune modifiche per garantire che ChatGPT mantenga un livello di allerta costante, anche se i messaggi di emergenza compaiono gradualmente nelle diverse conversazioni. Ciò includerà risposte più attente quando vengono rilevate intenzioni suicide e un protocollo di contenimento nei casi sensibili.
Inoltre, OpenAI implementerà controlli parentali che consentiranno ai genitori di supervisionare l'utilizzo del chatbot da parte dei minori. Queste funzionalità includeranno report sulle attività e strumenti di monitoraggio, con l'obiettivo di ridurre i rischi associati al supporto emotivo che alcuni utenti cercano nell'IA.
Dal suo lancio nel 2022, ChatGPT ha raggiunto oltre 700 milioni di utenti settimanali. La sua utilità nell'istruzione, nella programmazione e nella scrittura creativa è stata ampiamente riconosciuta, ma il suo ruolo nei problemi di salute mentale rimane discutibile.
Questo caso non è isolato. A maggio, un'altra azienda di chatbot è stata citata in giudizio in una causa relativa al suicidio di un adolescente. Gli esperti avvertono che l'intelligenza artificiale non è ancora pronta a sostituire l'assistenza psicologica e chiedono una regolamentazione più severa sul suo utilizzo.
La Verdad Yucatán