De illusie van digitale empathie: waarom ChatGPT nooit uw psychiater kan zijn

“Ons doel is niet om mensen op het platform te houden, maar om ze te helpen het zo goed mogelijk te gebruiken.” Zo kondigde OpenAI de nieuwste update van ChatGPT . Het doel is duidelijk: het mentale welzijn van gebruikers beschermen . Hoe? Door hen aan te moedigen even pauze te nemen en empathischer te reageren op persoonlijke vragen . Maar laten we het stap voor stap doen.
“Jullie kletsen al een tijdje, is het een goed moment voor een pauze?”De nieuwe update is zojuist uitgebracht en heeft meer dan 90 artsen uit meer dan 30 landen betrokken, evenals een adviesgroep van experts op het gebied van geestelijke gezondheid , jeugdontwikkeling en mens-computerinteractie, om de meest kwetsbare gebruikers te beschermen. De eerste stap was de introductie van herinneringen die gebruikers aanmoedigen een pauze te nemen tijdens bijzonder lange chatsessies. Mocht een dergelijke situatie zich voordoen, dan opent er een venster, een functie die al succesvol is getest op Instagram en TikTok , met de zin: "Je chat al een tijdje: is het een goed moment voor een pauze?" en twee opties: doorgaan of de sessie beëindigen.
Geen droge of eenduidige antwoorden meerDe andere interventie betrof hoe ChatGPT zou reageren op persoonlijke vragen , zoals die over relaties, werk of andere complexe emotionele situaties. In dit geval zal de chatbot geen duidelijke of ondubbelzinnige antwoorden geven , maar de gebruiker uitnodigen om dieper na te denken en hem of haar te stimuleren om verschillende perspectieven te overwegen. Het doel, zo legt het bedrijf uit, is nooit om de autonomie van de gebruiker te vervangen, maar om respectvolle en verantwoordelijke begeleiding te bieden.
20% van de generatie Z gebruikt ChatGPT als psycholoogMentaal welzijn is echter al enkele maanden een belangrijk aandachtspunt voor ChatGPT. Mond-tot-mondreclame verspreidt zich op sociale media: "Gebruik ChatGPT als een psycholoog. Ik praat met hem over al mijn problemen", staat in een bericht. Hoewel de platforms geen gebruikersgegevens vrijgeven, schat Mattia Della Rocca, hoogleraar Psychologie van Digitale Omgevingen aan de Universiteit van Tor Vergata, dat minstens 20% van de generatie Z minstens één keer AI heeft gebruikt als vervanging voor therapie.

En er is geen twijfel dat ChatGPT gemakkelijk toegankelijk is – het kost slechts een paar klikken – maar wat zijn de werkelijke risico's van verkeerd gebruik van deze technologieën? Een van de grootste gevaren is de aanwezigheid van zogenaamde AI-"hallucinaties", oftewel onzinnige of volstrekt ongepaste reacties. Bepaalde reacties kunnen bijzonder gevaarlijk zijn in contexten die verband houden met depressie of zelfbeschadiging, omdat ze het risico met zich meebrengen dat de gebruiker ongepaste of schadelijke handelingen uitvoert.
Leerproblemen? De resultaten die AI-gebruikers in verwarring brengenMaar dat is nog niet alles. Volgens een onderzoek van MIT in Boston heeft dagelijks gebruik van ChatGPT en andere tools voor kunstmatige intelligentie ernstige gevolgen voor het leer-, denk- en geheugenvermogen . Het onderzoek, het eerste in zijn soort, gebruikte elektroden om de hersenactiviteit van drie groepen studenten te meten: de eerste groep werkte met ChatGPT, de tweede groep had internettoegang (maar zonder tools voor kunstmatige intelligentie) en de derde groep gebruikte andere, meer traditionele tools. De opdracht was om drie korte teksten te schrijven over vooraf bepaalde onderwerpen, verdeeld over drie opeenvolgende sessies, verspreid over een periode van een kwartaal.
De resultaten lieten geen ruimte voor twijfel. Ze onthulden dat studenten die grote taalmodellen (LLM's) zoals ChatGPT gebruikten om hun teksten te schrijven , een slechter geheugen, verminderde hersenactiviteit en minder betrokkenheid vertoonden dan degenen die de andere twee methoden gebruikten. "Het gebruik van LLM's had een meetbaar effect op de deelnemers, en hoewel de voordelen aanvankelijk duidelijk waren, zoals we gedurende vier maanden aantoonden, presteerden deelnemers in de ChatGPT-groep op elk niveau slechter dan hun tegenhangers in de 'alleen-hersen'-groep: neuraal, taalkundig en op het gebied van de score", legden de MIT-onderzoekers uit.
Luisteren gaat verder dan alleen het ontvangen van woordenKortom, hoewel deze updates kunstmatige intelligentie menselijker willen maken, hebben we gezien dat het een psycholoog niet kan vervangen. Het kan zeker helpen bij het denken, maar niet bij genezing. Het kan kunstmatig luisteren bieden, geen menselijke relaties. Het is een nuttig hulpmiddel, maar geen therapeut. En in een tijdperk waarin communicatie direct is, is echt luisteren een diepgewortelde menselijke eigenschap , een die veel verder gaat dan het simpelweg ontvangen van woorden.
Luce