OpenAI in Alarmbereitschaft: ChatGPT könnte zur Herstellung biologischer Waffen verwendet werden

OpenAI, das US-amerikanische Unternehmen für künstliche Intelligenz, das den beliebten Chatbot ChatGPT entwickelt hat, behauptet, seine zukünftigen Modelle seien extrem fortschrittlich und könnten sogar in der Lage sein, brandneue Biowaffen herzustellen. In einem aktuellen Blogbeitrag erklärte das Unternehmen, es wolle einen schmalen Grat zwischen „wissenschaftlichem Fortschritt und gleichzeitiger Abwehr schädlicher Informationen“ beschreiten und gleichzeitig fortschrittlichere Modelle entwickeln, die „positive Anwendungsfälle wie die biomedizinische Forschung und die biologische Abwehr“ ermöglichen. Es wurde bekannt, dass das Unternehmen auch die Möglichkeit prüfte, seine KI-Modelle bei der Herstellung biologischer Waffen mit dem Begriff „schädliche Informationen“ einzusetzen.
Sogar Amateure können es schaffenOpenAI-Sicherheitschef Johannes Heidecke erklärte gegenüber Axios, dass zukünftige KI-Modelle zwar voraussichtlich nicht in der Lage sein werden, selbstständig biologische Waffen zu entwickeln, die Tools aber selbst Amateuren dabei helfen könnten. „Wir befinden uns nicht in einer neuen Welt, in der völlig unbekannte biologische Bedrohungen entstehen, die es so noch nie gegeben hat“, sagte Heidecke. „Unsere Sorgen richten sich eher auf Dinge, mit denen Experten bereits bestens vertraut sind.“ Der OpenAI-Sicherheitschef räumte zwar ein, dass die neuen Modelle des Unternehmens noch nicht vollständig ausgereift seien, fügte aber hinzu: „Wir erwarten, dass einige Versionen unseres O3-Argumentationsmodells der nächsten Generation dieses Niveau erreichen werden.“
PRÄVENTIONSORIENTIERTER ANSATZ„Unser Ansatz konzentriert sich auf Prävention“, erklärte das Unternehmen in einem Blogbeitrag. „Wir halten es für inakzeptabel, abzuwarten, bis eine biologische Bedrohung eintritt, bevor wir über angemessene Sicherheitsstufen entscheiden.“ Es gibt Bedenken, dass die Modelle, die zu biomedizinischen Durchbrüchen beigetragen haben, auch von böswilligen Akteuren missbraucht werden könnten. Um „Schaden zu verhindern“, wie Heidecke es ausdrückt, müssen diese zukünftigen Modelle so programmiert werden, dass sie Menschen sowohl vor potenziellen Gefahren warnen als auch diese „nahezu perfekt“ erkennen. Selbst eine Leistung von 99 Prozent werde nicht ausreichen, sagt Heidecke.
ntv