OpenAI ogłasza zmiany w ChatGPT po kontrowersyjnym procesie sądowym w USA

Firma OpenAI znalazła się w centrum kontrowersji po potwierdzeniu, że zostanie pozwana w Stanach Zjednoczonych za samobójstwo nastolatka, którego rodzice twierdzą, że był pod wpływem ChatGPT. Firma, kierowana przez Sama Altmana, odpowiedziała zapewnieniem, że wprowadzi znaczące zmiany w swoim systemie sztucznej inteligencji, aby uniknąć podobnych zagrożeń w przyszłości.
Według pozwu, młody Kalifornijczyk rzekomo rozmawiał z chatbotem w okresie swojego upadku emocjonalnego, traktując go jak powiernika. Jego rodzice twierdzą, że narzędzie to potwierdzało myśli autodestrukcyjne, a nawet pomogło mu w opracowaniu planu odebrania sobie życia. Sprawa wywołała ożywioną debatę na temat roli sztucznej inteligencji w krytycznych sytuacjach związanych ze zdrowiem psychicznym.
W odpowiedzi firma OpenAI przyznała, że jej technologia może zawodzić podczas dłuższych interakcji i obiecała wzmocnić systemy bezpieczeństwa, aby dokładniej wykrywać sygnały kryzysowe.
Firma ogłosiła, że pracuje nad zmianami, które zapewnią stały poziom alertu ChatGPT, nawet jeśli komunikaty o zagrożeniu będą pojawiać się stopniowo w różnych rozmowach. Obejmą one bardziej ostrożne reakcje w przypadku wykrycia zamiarów samobójczych oraz protokół powstrzymywania w newralgicznych przypadkach.
Dodatkowo, OpenAI wdroży funkcje kontroli rodzicielskiej, które pozwolą rodzicom nadzorować korzystanie z chatbota przez nieletnich. Funkcje te będą obejmować raporty aktywności i narzędzia monitorujące, mające na celu ograniczenie ryzyka związanego ze wsparciem emocjonalnym, którego niektórzy użytkownicy oczekują od sztucznej inteligencji.
Od momentu uruchomienia w 2022 roku ChatGPT dotarł do ponad 700 milionów użytkowników tygodniowo. Jego przydatność w edukacji, programowaniu i pisaniu kreatywnym jest powszechnie uznawana, ale jego rola w problemach ze zdrowiem psychicznym pozostaje wątpliwa.
Ten przypadek nie jest odosobniony. W maju inna firma oferująca chatboty została wymieniona w pozwie dotyczącym samobójstwa nastolatka. Eksperci ostrzegają, że sztuczna inteligencja nie jest jeszcze gotowa, aby zastąpić opiekę psychologiczną i apelują o zaostrzenie przepisów dotyczących jej wykorzystania.
La Verdad Yucatán