Während KI-Tools die Bildung verändern, kämpfen Schulen damit, die Grenze zum Betrug zu ziehen

Der Buchbericht gehört der Vergangenheit an. Tests und Aufsätze werden obsolet.
Lehrer an weiterführenden Schulen und Hochschulen im ganzen Land sagen, dass die Nutzung künstlicher Intelligenz bei Schülern mittlerweile so weit verbreitet ist, dass die Aufgabe schriftlicher Aufgaben außerhalb des Unterrichts einer Aufforderung zum Schummeln gleichkommt.
„Der Betrug ist maßlos. So schlimm habe ich ihn in meiner gesamten Karriere noch nie erlebt“, sagt Casey Cuny, der seit 23 Jahren Englisch unterrichtet. Pädagogen fragen sich nicht mehr, ob Schüler ihre Hausaufgaben an KI-Chatbots auslagern. „Alles, was man nach Hause schickt, muss man davon ausgehen, dass es KI-gesteuert ist.“
Die Frage ist nun, wie sich Schulen anpassen können, denn viele der seit Generationen eingesetzten Lehr- und Bewertungsinstrumente sind nicht mehr effektiv. Die KI-Technologie verbessert sich rasant und wird immer stärker in den Alltag integriert. Sie verändert die Art und Weise, wie Schüler lernen und lernen, und die Lehrmethoden der Lehrer. Und sie sorgt für neue Verwirrung darüber, was akademische Unredlichkeit ausmacht.
„Wir müssen uns fragen, was Betrug ist“, sagt Cuny, der 2024 in Kalifornien als Lehrer des Jahres ausgezeichnet wurde. „Denn ich glaube, die Grenzen verschwimmen.“
Cunys Schüler an der Valencia High School in Südkalifornien schreiben mittlerweile hauptsächlich im Unterricht. Er überwacht die Laptop-Bildschirme der Schüler von seinem Desktop aus und verwendet dazu eine Software, mit der er ihre Bildschirme „sperren“ oder den Zugriff auf bestimmte Websites blockieren kann. Er integriert KI auch in seinen Unterricht und bringt den Schülern bei, wie sie KI als Lernhilfe nutzen können, „um Kinder dazu zu bringen, mit KI zu lernen, anstatt mit KI zu schummeln“.
Im ländlichen Oregon hat die Highschool-Lehrerin Kelly Gibson eine ähnliche Umstellung auf das Schreiben im Unterricht vorgenommen. Sie setzt verstärkt auf mündliche Beurteilungen, damit die Schüler ihr Verständnis der zugewiesenen Lektüre besprechen können.
„Früher habe ich eine Schreibaufgabe gestellt und gesagt: ‚In zwei Wochen will ich einen Aufsatz mit fünf Absätzen‘“, sagt Gibson. „Heute kann ich das nicht mehr. Das ist fast so, als würde ich Teenager zum Schummeln auffordern.“
Nehmen wir zum Beispiel eine früher typische Englischaufgabe in der High School: Schreiben Sie einen Aufsatz, der die Bedeutung der sozialen Schicht in „Der große Gatsby“ erklärt. Viele Schüler sagen, ihr erster Instinkt sei jetzt, ChatGPT um Hilfe beim „Brainstorming“ zu bitten. Innerhalb von Sekunden liefert ChatGPT eine Liste mit Aufsatzideen sowie Beispiele und Zitate zur Untermauerung. Der Chatbot fragt abschließend, ob er noch mehr tun kann: „Brauchen Sie Hilfe beim Schreiben eines Teils des Aufsatzes? Ich kann Ihnen beim Verfassen einer Einleitung oder beim Gliedern eines Absatzes helfen!“
Studierende geben an, dass sie sich oft mit guten Absichten an KI wenden, wenn es um Recherche, Lektorat oder das Lesen schwieriger Texte geht . Doch KI bietet eine beispiellose Versuchung, und manchmal ist es schwer zu wissen, wo die Grenze liegt.
Lily Brown, Studentin im zweiten Studienjahr und Psychologiestudentin an einer geisteswissenschaftlichen Fakultät der Ostküste, verlässt sich bei der Gliederung ihrer Essays auf ChatGPT, da sie Schwierigkeiten hat, die einzelnen Teile selbst zusammenzusetzen. ChatGPT half ihr auch bei einem Philosophiekurs im ersten Studienjahr, bei dem sich die Pflichtlektüre „wie eine andere Sprache anfühlte“, bis sie KI-Zusammenfassungen der Texte las.
„Manchmal habe ich ein schlechtes Gewissen, wenn ich ChatGPT zum Zusammenfassen von Lesematerial verwende, weil ich mich frage, ob das Betrug ist. Ist es Betrug, mir bei der Gliederung zu helfen? Wenn ich einen Aufsatz in meinen eigenen Worten schreibe und frage, wie ich ihn verbessern kann, oder wenn ich anfange, meinen Aufsatz zu bearbeiten, ist das Betrug?“
In ihren Lehrplänen steht beispielsweise: „Verwenden Sie keine KI, um Aufsätze zu schreiben und Gedanken zu formulieren“, sagt sie, doch das lässt viele Grauzonen offen. Studierende sagen, sie scheuen sich oft, ihre Dozenten um Klarheit zu bitten, weil sie durch das Eingeständnis des KI-Einsatzes als Betrüger gebrandmarkt werden könnten.
Schulen überlassen die KI-Richtlinien meist den Lehrkräften, was oft dazu führt, dass die Regeln innerhalb einer Schule stark variieren. Manche Pädagogen begrüßen beispielsweise die Nutzung von Grammarly.com, einem KI-gestützten Schreibassistenten zur Grammatikprüfung. Andere verbieten dies, da das Tool auch das Umschreiben von Sätzen anbiete.
„Ob man KI nutzen kann oder nicht, hängt von der jeweiligen Klasse ab. Das kann verwirrend sein“, sagt Jolie Lahey, eine Schülerin der 11. Klasse in Valencia. Sie schreibt Cuny zu, dass sie ihrer Englischklasse im zweiten Jahr verschiedene KI-Fähigkeiten beigebracht hat, zum Beispiel wie man Lernhilfen auf ChatGPT hochlädt, den Chatbot die Schüler abfragen lässt und ihnen dann die Aufgaben erklärt, die sie falsch gelöst haben.
Doch dieses Jahr haben ihre Lehrer strikte „Keine KI“-Regeln. „Es ist ein so hilfreiches Werkzeug. Und wenn wir es nicht benutzen dürfen, macht das einfach keinen Sinn“, sagt Lahey. „Es fühlt sich veraltet an.“
Viele Schulen verboten den Einsatz von KI zunächst, nachdem ChatGPT Ende 2022 eingeführt wurde. Doch die Ansichten über die Rolle künstlicher Intelligenz im Bildungswesen haben sich dramatisch verändert. Der Begriff „KI-Kompetenz“ ist zu einem Schlagwort der Schulanfangszeit geworden, wobei der Schwerpunkt darauf liegt, die Stärken von KI mit ihren Risiken und Herausforderungen in Einklang zu bringen.
Im Sommer haben mehrere Hochschulen und Universitäten ihre KI-Arbeitsgruppen einberufen, um detailliertere Richtlinien zu entwerfen oder den Lehrkräften neue Anweisungen zu geben.
Die University of California, Berkeley, hat allen Fakultätsmitgliedern per E-Mail neue KI-Richtlinien zugesandt. Darin werden sie aufgefordert, „eine klare Aussage über die Erwartungen an den Einsatz von KI in ihren Lehrplan aufzunehmen“. Die Richtlinien bieten Formulierungen für drei beispielhafte Lehrplanaussagen – für Kurse, die KI erfordern, KI im Unterricht verbieten oder einen gewissen KI-Einsatz zulassen.
„Ohne eine solche Erklärung besteht die Gefahr, dass Studierende diese Technologien eher unsachgemäß verwenden“, heißt es in der E-Mail. Sie betont, dass KI „neue Verwirrung darüber stiftet, was legitime Methoden zur Erledigung studentischer Arbeiten sein könnten.“
An der Carnegie Mellon University ist es aufgrund von KI zu einem enormen Anstieg von Verstößen gegen die akademische Verantwortung gekommen. Doch oft sind sich die Studierenden nicht bewusst, dass sie etwas falsch gemacht haben, sagt Rebekah Fitzsimmons, Vorsitzende des KI-Fakultätsberatungsausschusses am Heinz College of Information Systems and Public Policy der Universität.
Beispielsweise schrieb ein Englischlernender eine Aufgabe in seiner Muttersprache und verwendete DeepL, ein KI-gestütztes Übersetzungstool, um seine Arbeit ins Englische zu übersetzen. Er war sich jedoch nicht bewusst, dass die Plattform auch seine Sprache veränderte, was von einem KI-Detektor erkannt wurde.
Die Durchsetzung von Richtlinien zur akademischen Integrität sei durch KI erschwert worden, da diese schwer zu erkennen und noch schwerer zu beweisen sei, so Fitzsimmons. Lehrkräften wird Flexibilität eingeräumt, wenn sie glauben, dass ein Student unabsichtlich eine Grenze überschritten hat. Sie zögern nun jedoch, auf Verstöße hinzuweisen, weil sie Studierende nicht zu Unrecht beschuldigen wollen. Studierende befürchten zudem, dass sie im Falle einer falschen Anschuldigung ihre Unschuld nicht beweisen können.
Im Sommer arbeitete Fitzsimmons an der Ausarbeitung detaillierter neuer Richtlinien für Studierende und Lehrkräfte mit, die für mehr Klarheit sorgen sollen. Den Lehrkräften wurde mitgeteilt, dass ein generelles KI-Verbot „keine praktikable Maßnahme“ sei, solange die Dozenten ihre Lehr- und Bewertungsmethoden nicht ändern. Viele Lehrkräfte schaffen Hausarbeiten ab. Einige seien zu schriftlichen Tests im Unterricht zurückgekehrt, sagte sie, andere seien zum „umgedrehten Unterricht“ übergegangen, bei dem die Hausaufgaben im Unterricht erledigt werden.
Emily DeJeu, die an der Business School der Carnegie Mellon University Kommunikationskurse unterrichtet, hat schriftliche Aufgaben als Hausaufgaben abgeschafft und sie durch Tests im Unterricht ersetzt, die auf Laptops in einem „Lockdown-Browser“ durchgeführt werden, der die Schüler daran hindert, den Testbildschirm zu verlassen.
„Von einem 18-Jährigen große Disziplin zu erwarten, ist unzumutbar. Deshalb ist es die Aufgabe der Ausbilder, Leitplanken zu errichten.“
___
Die Bildungsberichterstattung der Associated Press wird von mehreren privaten Stiftungen finanziell unterstützt. AP ist allein für alle Inhalte verantwortlich. Die Standards der AP für die Zusammenarbeit mit Wohltätigkeitsorganisationen, eine Liste der Unterstützer und die geförderten Berichterstattungsbereiche finden Sie auf AP.org.
ABC News