Chatbot AI e suicidi: la FTC indaga sull’impatto sui minori

La Federal Trade Commission ha appena lanciato un’indagine sull’impatto dei chatbot AI sui minori. Sette giganti della tecnologia, tra cui OpenAI, Meta, Snap, Alphabet, xAI e Character.AI, dovranno fornire dettagli su come i loro chatbot interagiscono con bambini e adolescenti.
L’obiettivo è capire se questi “compagni virtuali” siano davvero sicuri per gli utenti più giovani, e come le aziende intendano gestire i rischi emotivi e psicologici legati a queste interazioni.
Chatbot AI e minori: la FTC chiede trasparenza alle Big TechLe aziende avranno molte cose da spiegare… Come monetizzano le conversazioni con gli utenti; quali strategie usano per fidelizzare i più giovani; quali misure adottano per prevenire danni psicologici; come informano gli utenti sui rischi; e se rispettano le normative sulla privacy dei minori.
La richiesta rientra in uno studio conoscitivo, ma la FTC ha chiarito che non esiterà ad intervenire se emergessero violazioni gravi.
L’indagine arriva dopo alcuni episodi tragici. Un sedicenne californiano ha condiviso i suoi pensieri suicidi con ChatGPT, ricevendo, secondo quanto riportato dal New York Times, consigli che lo avrebbero aiutato a mettere in atto il gesto. Un altro caso riguarda un quattordicenne in Florida, che si è tolto la vita dopo settimane di interazioni con un chatbot di Character.AI.
Questi eventi hanno sollevato interrogativi urgenti sulla responsabilità delle aziende e sull’efficacia delle protezioni attuali.
Verso nuove regoleNel frattempo, l’assemblea legislativa della California ha approvato un disegno di legge che impone standard di sicurezza per i chatbot destinati ai minori. Le aziende dovranno garantire sistemi di controllo, limitazioni tematiche e trasparenza nell’uso dei dati. Un primo passo verso una regolamentazione più severa, che potrebbe presto estendersi a livello federale (e speriamo in tutto il mondo).
Punto Informatico