ChatGpt lädt Sie zu einer Pause ein: Was OpenAI tut, um durch KI verursachten mentalen Stress zu reduzieren

OpenAI hat in ChatGpt ein neues Benachrichtigungssystem eingeführt, um eine bewusstere und gesündere Nutzung des Chatbots zu fördern, der mittlerweile fast 700 Millionen aktive Benutzer pro Woche hat.
Bei besonders langen Gesprächen kann eine subtile Nachricht erscheinen, die lautet: „Nur nachfragen: Sie chatten schon eine Weile, ist es ein guter Zeitpunkt für eine Pause?“, begleitet von zwei Optionen: „Chatten Sie weiter“ oder „Das war hilfreich.“
Diese Warnmeldungen unterbrechen das Gespräch nicht, sondern regen den Nutzer vielmehr dazu an, über seine Nutzungszeit nachzudenken. Die Häufigkeit und die Aktivierungsmethoden werden derzeit noch verfeinert.
Jemand auf X hat darauf hingewiesen, dass die Schaltfläche, die zum Fortsetzen des Chats auffordert, prominenter ist als die, die Sie auffordert, die intensive Nutzung von ChatGpt zu bestätigen.
Eine bewusstere künstliche IntelligenzParallel dazu arbeitet OpenAI mit Experten für psychische Gesundheit , Fachleuten für Jugendentwicklung und Forschern auf dem Gebiet der Mensch-Computer-Interaktion zusammen, um die Art und Weise zu verbessern, wie ChatGpt auf Menschen reagiert , insbesondere auf diejenigen, die unter emotionaler Fragilität leiden.
Über 90 Ärzte aus mehr als 30 Ländern waren beteiligt und es wurden Beratungsgruppen eingerichtet, um Strategien zu entwickeln, die es dem Modell ermöglichen würden, Anzeichen psychischer Belastungen oder emotionaler Abhängigkeit zu erkennen.
In diesen Fällen, erklärte OpenAI, kann der Chatbot beweisbasierte Ressourcen anbieten, anstatt allgemeine oder potenziell schädliche Antworten zu geben.
Psychischer Stress durch ChatGptIn den letzten Monaten haben mehrere Benutzer von Erfahrungen berichtet, bei denen Familienmitglieder oder Freunde in einem Moment emotionaler Belastung eine Verschlechterung ihres Zustands nach intensiver Nutzung von ChatGpt erlebten.
In einigen Fällen schienen die Gespräche bereits bestehende Wahnvorstellungen zu verstärken. Über viele dieser Vorfälle wurde in den Medien berichtet und sie fanden weite Verbreitung.
OpenAI scheint sich der psychologischen Risiken von ChatGpt inzwischen stärker bewusst zu sein. So wurde kürzlich eine im April eingeführte Änderung überarbeitet, die den Chatbot zu entgegenkommend machte, was manchmal zu ungesundem Verhalten führte.
Experten für psychische Gesundheit sprechen mittlerweile von einem neuen Phänomen namens „KI-Psychose“ , bei dem die langfristige Verwendung von Sprachmodellen dazu beitragen kann, bei gefährdeten Personen innere Belastungen auszulösen oder zu verschlimmern .
Der Richtungswechsel in der Beziehung zu den NutzernMit diesen neuen Maßnahmen möchte OpenAI den Schwerpunkt von der Maximierung der Interaktion um jeden Preis auf die Unterstützung der Menschen bei der sinnvollen und nachhaltigen Nutzung künstlicher Intelligenz verlagern.
Bei Bedarf reagiert ChatGpt vorsichtiger, weniger eindeutig und achtet stärker auf die emotionalen Signale des Nutzers. „ Wenn Sie fragen wie: ‚Soll ich mit meinem Freund Schluss machen? ‘“, schreibt OpenAI auf seiner offiziellen Website, „soll ChatGpt Ihnen keine direkte Antwort geben. Es soll Sie beim Nachdenken anregen – indem es Fragen stellt und die Vor- und Nachteile abwägt. Dieses neue Verhalten für sensible persönliche Entscheidungen wird bald eingeführt.“
Auf dem Weg zu GPT?5In der Zwischenzeit bereitet das Unternehmen einen weiteren wichtigen Schritt vor. GPT™5 , die nächste Generation des Sprachmodells, das ChatGpt zugrunde liegt, soll in den nächsten Tagen offiziell eingeführt werden.
In einer aktuellen Folge des Podcasts „ This Past Weekend with Theo Von “ sagte Sam Altman, CEO von OpenAI, das neue Modell „scheint wirklich schnell zu sein“, und verglich seine Entwicklung mit dem Manhattan-Projekt , das am Ende des Zweiten Weltkriegs zur Erfindung der Atombombe führte.
„Es gibt Momente in der Geschichte der Wissenschaft, in denen eine Gruppe von Wissenschaftlern auf ihre Schöpfung blickt und einfach fragt: ‚Was haben wir getan?‘“, sagte Altman.
In einem anderen Interview berichtete Altman von einem Vorfall, bei dem GPT?5 eine komplexe Frage beantwortete, die er selbst nicht lösen konnte.
„Ich fühlte mich im Vergleich zur KI nutzlos“, gab er zu. „Es war wirklich schwierig, aber die KI hat es sofort gelöst.“
Altman machte auf Social Media X eine Andeutung auf die Ankunft von Gpt-5 und teilte einen Screenshot als Antwort auf die – nicht viel erwartende – Frage eines Benutzers, ob das neue Modell eine Fernsehsendung namens Pantheon empfehlen würde.
Größere Offenheit der KIErst gestern veröffentlichte OpenAI außerdem ein Open-Weight-Modell namens GPT?OSS . Dies ist ein bedeutender Schritt für das in San Francisco ansässige Unternehmen, das Offenheit und Open Source zu seiner Gründungsmission gemacht hatte, im Laufe der Jahre jedoch einen zunehmend geschlossenen Ansatz verfolgte.
Sam Altman räumte ein, dass das Unternehmen in der Vergangenheit in Bezug auf Open Source „auf der falschen Seite der Geschichte“ gestanden habe.
repubblica