GPT-5 debütiert mit einem Paukenschlag: Benutzer haben OpenAI davon überzeugt, GPT-4o auf ChatGPT umzustellen.

Im Jahr 2023 machte die Einführung von GPT-4 Experten und Neugierige gleichermaßen sprachlos. Umso mehr, als die Weiterentwicklung GPT-4o auf den Markt kam. Zwei Jahre später versprach OpenAI mit GPT-5 einen noch ehrgeizigeren Sprung – mit Intelligenz auf akademischem Niveau und professionellen Programmierkenntnissen . Doch was passiert, wenn eine Maschine, die wie ein alter Freund kommunizieren soll, anfängt, wie ein Berater zu klingen?
In den Stunden nach der Veröffentlichung wimmelte es auf Reddit von frustrierten Nachrichten. „40 zu töten ist keine Innovation, sondern Ausrottung“, schrieb ein Nutzer in einem Thread, in dem Dutzende andere das Gefühl teilten, die neue Version wirke distanzierter und weniger herzlich . Was als Revolution gedacht war, wurde von manchen als Verlust menschlicher Verbundenheit empfunden.
Das zugrunde liegende Problem bestand darin, dass eine der wichtigsten Neuerungen von GPT-5 darin bestand, dass das neue Modell es dem Benutzer überließ, zu entscheiden, welches Modell er verwenden wollte: ob er argumentieren oder andere verwenden wollte, die eher auf alltägliche Aufgaben ausgerichtet waren …
Dies führte dazu, dass der Modellwähler seit dem Wochenende aus der Benutzeroberfläche verschwunden ist, sogar für zahlende Benutzer … Und ja, GPT-5 mag für einige Dinge leistungsfähiger sein, aber GPT-4 schien einfühlsamer zu sein und die Benutzer haben begonnen, es zu vermissen.
Die Spannung ist offensichtlich: Bevorzugen wir eine präzisere, unparteiischere und technische KI oder eine, die unser Ego streichelt und unsere Emotionen verstärkt? Im Fall von GPT-5 zeigt die Reaktion der Community, dass künstliche Intelligenz nicht nur an Parametern und Benchmarks gemessen wird, sondern an der subtilen Chemie, die zwischen einer Textzeile und der Person entsteht, die sie liest.
Ein Start, der die Erwartungen übertrifftGPT-5 kam nicht ohne Grund. OpenAI präsentierte es als natürliche Weiterentwicklung von GPT-4, mit erheblichen kognitiven Verbesserungen und einer Architektur, die automatisch zwischen Modellen wechselt, Ressourcen optimiert und auf die Komplexität der Abfrage zugeschnittene Antworten bietet.
Das Versprechen umfasste nicht nur Geschwindigkeit und Genauigkeit, sondern auch ein nahtloses Erlebnis, bei dem sich der Benutzer keine Gedanken darüber machen muss, welches Modell er beantwortet. Die Theorie war tadellos: Bei einfachen Fragen wird ein günstigeres und schnelleres Modell verwendet; bei komplexen Fragen wird die leistungsstärkste Version aktiviert.
Die erste Implementierung scheiterte jedoch. Das Modellwechselsystem funktionierte nicht wie erwartet, und laut Altman selbst ließ dies GPT-5 „dümmer“ erscheinen, als es tatsächlich war. Die Enttäuschung machte sich schnell breit, und die vielen Beschwerden in den sozialen Medien waren nicht mehr zu überhören.
Reaktion der Gemeinschaft und Verlust der „Persönlichkeit“Benutzer, die an differenzierte Antworten mit einem Hauch von Humor oder Empathie gewöhnt waren, sahen sich mit einem kälteren, technischeren Modell konfrontiert.
Reddit-Threads spiegeln eine kollektive Trauer um GPT-40 wider. Manche beschreiben ihn als „Freund“, der zuhörte und freundlich reagierte. Andere sehen ihn als kreativen Partner, der selbst komplexe Themen differenziert behandelte. GPT-5 hingegen wird als kompetenter, aber distanzierter Fachmann wahrgenommen.
Diese Reaktion ist nicht trivial. Die Beziehung zwischen Menschen und Chatbots wird immer enger. OpenAI ist sich dieses Phänomens bewusst und veröffentlichte im März eine Studie über die emotionale Bindung zu seinen Modellen. Dabei räumte das Unternehmen ein, dass KI zu einem schmeichelnden Spiegel werden könnte, der Vorurteile und Illusionen verstärkt.
Das Dilemma der künstlichen EmpathiePattie Maes, Professorin am MIT, interpretiert die Änderung von GPT-5 für Wired als gesund: weniger Selbstgefälligkeit, mehr Objektivität. Ihrer Ansicht nach verringert die Abkehr von einem allzu engen Ton das Risiko von Wahnvorstellungen, der Verstärkung von Vorurteilen und ungesunden emotionalen Abhängigkeiten.
Doch hier liegt das Paradox: Kälte mag zwar die Sicherheit erhöhen, macht sie aber weniger attraktiv für diejenigen, die Konversation, Inspiration oder gar Trost suchen . Altman hat dies indirekt in X anerkannt, indem er feststellte, dass viele Menschen ChatGPT als eine Art informellen Therapeuten nutzen. Diese Dynamik zu ändern, erfordert eine tiefere Note im Benutzererlebnis.
Bleibt die Frage, ob KI auf technische Genauigkeit oder emotionale Bindung optimiert werden sollte. Die Antwort ist nicht einfach, und in einem Markt, in dem die Nutzerbindung entscheidend ist, zählt jede Nuance.
Die Reaktion von OpenAI: GPT-4o ist zurückOpenAI hat bereits mit konkreten Maßnahmen reagiert:
- Halten Sie GPT-4o für zahlende Benutzer verfügbar.
- Erhöhen Sie das GPT-5-Nutzungslimit für Plus-Abonnenten.
- Verbessern Sie das automatische Modellwechselsystem.
- Ermöglichen Sie dem Benutzer, bei Bedarf einen langsameren, tieferen „Reflexionsmodus“ zu aktivieren.
Diese Maßnahmen zielen nicht nur darauf ab, technische Probleme zu lösen, sondern auch das Vertrauen einer Community zurückzugewinnen, die sich gehört fühlt, aber immer noch nicht davon überzeugt ist, dass GPT-5 in jeder Hinsicht einen Fortschritt darstellt.
eleconomista