Er bat ChatGPT, ihm eine Diät zusammenzustellen, und landete mit einer Krankheit aus dem 19. Jahrhundert im Krankenhaus.

Wir geben uns nicht mehr damit zufrieden, im Internet zu suchen. Bei allen Fragen und Anliegen wenden wir uns heute an künstliche Intelligenz. Sie sucht im Grunde an derselben Stelle nach Informationen wie wir, erspart uns aber die Mühe, genau die Informationen zu finden, die wir suchen.
Dies kann als Vorteil angesehen werden, doch immer mehr Experten warnen vor diesem Trend, erstens, weil er uns „dumm“ macht, und zweitens, weil KI alles andere als perfekt ist und viel häufiger versagt, als wir denken, insbesondere wenn es um komplexere Anfragen und Fragen geht.
Wenn Sie ChatGPT fragen, welches das bevölkerungsreichste Land der Welt ist und wie viele Einwohner es hat, kann Ihnen die Maschine dies ganz sicher sagen. Die Gefahr liegt jedoch darin, dass wir Fachkräfte durch KI ersetzen.
Ein klares Beispiel hierfür ist ein Mann, der sich an den Chatbot von OpenAI wandte, um eine Diät für ihn zu entwerfen . Einem Bericht in der Fachzeitschrift Annals of Internal Medicine Clinical Cases zufolge bat der 60-Jährige ChatGPT , ihm eine Alternative zu Natriumchlorid (Kochsalz) anzubieten, um seine Aufnahme zu reduzieren.
Daraufhin empfahl die KI , Kochsalz durch Natriumbromid zu ersetzen. Der Mann behielt diese Ernährungsumstellung über drei Monate bei , bis zu dem Punkt, an dem er neurologische und psychiatrische Symptome wie Paranoia, Halluzinationen, Schlaflosigkeit und Koordinationsstörungen entwickelte, die seine Einlieferung in die Notaufnahme erforderlich machten.
Die Ärzte diagnostizierten bei ihm Bromismus, eine Vergiftung, die heute fast ausgerottet ist, im 19. und 20. Jahrhundert jedoch sehr verbreitet war, da es sich um ein verschreibungspflichtiges Medikament handelte. Offensichtlich wurde das Medikament wegen seiner gesundheitlichen Risiken vom Markt genommen.
Neben den Halluzinationen entwickelte der Patient auch Hautläsionen, Akne und kleine rote Beulen, die mit der Vergiftung in Zusammenhang standen. Dank der medizinischen Betreuung konnte der Patient glücklicherweise entlassen werden und zeigte bei den Nachuntersuchungen keine weiteren Symptome oder Läsionen.
Ein Mediziner hätte Bromid niemals als Salzersatz empfohlen , und jetzt richten sich alle Augen auf ChatGPT und jede andere KI im Allgemeinen. OpenAI weist darauf hin, dass seine Dienste nicht für die Diagnose oder Behandlung von Krankheiten bestimmt sind und, wie in den Allgemeinen Geschäftsbedingungen erläutert, nicht als einzige Informationsquelle verwendet werden sollten.
Dennoch ignorieren die meisten Menschen diese Empfehlung und nutzen ChatGPT als Allrounder. Obwohl es je nach Fall hilfreich sein kann, kann es im Allgemeinen gefährlich oder irreführend sein. Vielleicht sollte OpenAI medizinische Anfragen blockieren, genauso wie Anfragen zu Drogen oder Gewalt.
eleconomista