«Das Gegenteil von dem, was ich erreichen wollte»: Der Hauptautor des KI-Gesetzes der EU packt aus


Er ist der Hauptautor des grossen KI-Gesetzes der EU. Jahre seines Lebens hat er in dieses Dokument gesteckt. Jetzt aber sieht Gabriele Mazzini die AI Act als misslungen an. So sehr, dass er es nicht mehr mit seinem Gewissen vereinbaren konnte, die Arbeit daran fortzusetzen. Deshalb kündigte er sogar seinen gut dotierten Posten in der Europäischen Kommission. Gegenüber der NZZ erzählt er erstmals Details darüber, wie aus seiner Sicht aus einem sinnvollen Gesetz ein Monster wurde.
NZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.
Bitte passen Sie die Einstellungen an.
Herr Mazzini, wie kam es dazu, dass Sie Hauptautor des KI-Gesetzes wurden?
Mein Interesse für Technologieregulierung hat mich 2017 zur EU-Kommission gebracht. Vorher war ich in der Entwicklungshilfe in Afrika und in New Yorker Startups tätig. Beides hat mir die Auswirkungen von Technologie gezeigt. Bei der EU beschäftigte ich mich von Anfang an mit den Auswirkungen von KI auf Haftung und ethische Fragen. Als von der Leyen 2019 beschloss, KI zu regulieren, wurde ich damit beauftragt, diesen Text auszuarbeiten.
Wie kann man sich die Arbeit an der AI Act vorstellen?
Ich las mich in die Materie ein, sprach mit Experten und dachte mir die Struktur der Gesetzgebung aus: Die Idee, nicht KI an sich, sondern KI-Produkte zu regulieren und sie in Risikoklassen einzuteilen. Ich leitete ein kleines Team, zu dritt arbeiteten wir den Text des ersten Vorschlags der EU-Kommission aus.
Das KI-Gesetz der EU will die Regeln für alle Produkte vereinheitlichen, die KI enthalten. Für Einsatzgebiete mit niedrigem Risiko gibt es keine Regeln. Inakzeptable Einsatzgebiete, wie manche Einsätze von biometrischer Echtzeit-Überwachung, werden EU-weit verboten. Und KI-Systeme, die in Bereichen mit hohem Risiko wie Schule, Polizei oder Bewerbungen eingesetzt werden, müssen Qualitätsstandards erfüllen.
Nach der Veröffentlichung von Chat-GPT fügten die Gesetzgeber noch einen Abschnitt zu solchen KI-Modellen «mit allgemeinem Verwendungszweck» hinzu. Die Hersteller müssen etwa bekanntgeben, welche Daten fürs Training benutzt wurden, und «systemische Risiken» mildern.
Der erschien im April 2021. Sie arbeiteten also knapp drei Jahre an dem Entwurf?
Die Schreibarbeit ging relativ schnell. Der grosse Aufwand waren die Recherche, die Abstimmungen, die Verhandlungen mit verschiedensten Abteilungen zuvor.
Seit diesem Frühling tritt die AI Act nach und nach in Kraft. Wie viel hat sie mit Ihrem ersten Entwurf zu tun?
Die Grundidee, KI zu regulieren wie ein Produkt, also je nach Risiko Sicherheitsstandards anzufordern, stammt aus meiner Feder. Aber das heutige Gesetz ist viel komplexer, umfasst mehr, schreibt mehr Details vor – oft ohne triftigen Grund. Das zeigt sich schon an der Form: Aus 85 Artikeln, 89 Präambeln und 9 Anhängen in der ursprünglichen Form wurden 113 Artikel, 180 Präambeln und 13 Anhänge. Dazu kommen noch Erklärdokumente. Das Schlimmste ist aber: Der neue Text ist nicht so klar, wie er sein sollte.
Was ist dazwischen passiert?
Die kurze Antwort: Chat-GPT und enormer Zeitdruck. Doch lassen Sie mich ausführen. In der EU-Gesetzgebung macht die Kommission Gesetzesvorschläge, das Parlament und der Rat der Europäischen Union, bestehend aus zuständigen Ministern der Mitgliedsstaaten, müssen diesem zustimmen. Oft werden Details verändert. Dafür sind Diskussionen nötig. Der Prozess braucht Zeit. Doch nach der Veröffentlichung von Chat-GPT war plötzlich ein riesiger Druck auf dem Thema. Apokalyptische Szenarien kursierten. Erinnern Sie sich an den Brief des Future of Life Institute, auch von Elon Musk unterzeichnet, der eine sechsmonatige Pause bei der KI-Entwicklung forderte? Das beeindruckte viele Politiker und Bürokraten. Ausserdem ging die Amtszeit von Parlament und von der Leyens Kommission zu Ende, man fürchtete komplett neue Verhältnisse nach den Neuwahlen. Alle waren ambitioniert, schnell ein Gesetz zu verabschieden, um sagen zu können: Wir regeln das für euch. Wir sind vorne dran und haben es unter Kontrolle.
Diese Panik vor einem kurz bevorstehenden Weltuntergang war aus heutiger Sicht offensichtlich übertrieben.
Ja, der Diskurs hat sich komplett verändert. Vor etwa einem Jahr erschien der Draghi-Report darüber, wie sehr die EU in Sachen Technologieunternehmen hinterherhinkt. Wir sorgen uns vor Überregulierung. Als die AI Act diskutiert wurde, war das kein Thema. 2023 sprach von der Leyen in ihrer State-of-the-Union-Rede von dem Risiko, KI könnte die Menschheit auslöschen. Das ist ausserordentlich. Aber damals hatte auch der Open-AI-Chef in einem Blog-Post um harte Regulierung gebeten. «Wir haben dieses enorm gefährliche Ding gebaut, hört uns zu, damit wir euch sagen, wie wir euch schützen können»: Das war damals der Diskurs.
Werfen Sie den involvierten Politikern und Beamten vor, sich zu schlecht informiert zu haben angesichts dessen, was auf dem Spiel stand?
Ja. Alle Involvierten hätten sich die Zeit nehmen müssen, selbst nachzulesen, zu reflektieren, widersprechende Stimmen einzuholen und so die eigenen Prioritäten zu setzen. Mir war bereits 2023 klar, dass wir auf einem schlechten Weg waren. Unter dem Einfluss von Alarmismus und Zeitdruck entstehen keine soliden Gesetze.
Wie ging es Ihnen damit?
Ich fühlte mich einsam. Im Herbst 2023 erklärte ich meinen Vorgesetzten, dass ich mit dem, was passierte, nicht einverstanden war. Doch das veränderte nichts. Ich hatte natürlich keine Macht, etwas aufzuhalten, war in der Hierarchie zu weit unten, in den wichtigen Meetings nicht dabei. Doch ich hatte gehofft, dass meine Expertenmeinung zählen würde, schliesslich habe ich mehr als jeder andere an diesem Dossier gearbeitet. Und, noch wichtiger, hier handelte es sich um eines der folgenreichsten EU-Gesetze überhaupt. Das hätte jeder verstehen müssen.
Im Dezember 2023 verkündeten die drei Institutionen öffentlich, sich geeinigt zu haben.
Das wurde als ein grosser Sieg dargestellt. Dabei stand die Zustimmung der Mitgliedstaaten der EU noch aus. Im Februar 2024 schaffte die AI Act auch diese Hürde. Und ich beschloss: Ich musste entweder eine Chance bekommen, die Dinge zu verändern, oder kündigen. Denn ich wollte nicht meine Lebenszeit damit verbringen, etwas umzusetzen, an das ich nicht glaubte – und das zu beeinflussen ich keine Macht hatte.
Ihre Vorgesetzten gaben offensichtlich nicht nach.
Ich bekam keine Antwort. Man nahm in Kauf, die Person zu verlieren, die am meisten an diesem Dokument gearbeitet hatte.
Wenn Sie geblieben wären, wären Sie befördert worden?
Wenn ich meine Meinung nicht gesagt hätte, wohl schon. Nach Abschluss eines so grossen Projektes steigt man in der Regel auf. Aber was hätte mir das genutzt? Ich hätte meine Integrität aufgegeben. Ich habe meinen Job immer gerne gemacht. Es gibt in der Kommission eine ansteckende Überzeugung davon, dass man für die gute Sache arbeitet. Wenn man selbst das Gefühl hat, dass es in die falsche Richtung geht, ist das schwer auszuhalten. Zufällig ging ich genau an dem Tag, an dem die AI Act in Kraft trat, am 1. August 2024. Ich bin sehr erleichtert, heute meine persönliche Meinung als Bürger sagen zu können.
Erklären Sie Ihr Problem mit der heutigen Version der Regulierung.
Wir waren von der Frage ausgegangen: Wie fördert man eine neue Technologie und minimiert zugleich Risiken? Wir wollten durch Qualitätsstandards Vertrauen schaffen. Wer ein KI-Produkt in einem riskanten Bereich herstellt, muss diese Standards garantieren. Das ist in Ordnung. Doch da sich Technologie und die Anwendungsfälle noch weiterentwickeln, sollte man versuchen, nur das Nötigste zu regulieren und erst später die Anwendungsfälle auszuweiten. Ausserdem gelten für KI bereits viele andere Vorschriften, zum Beispiel durch den Datenschutz. Mit diesen Regeln sollten die neuen KI-Verpflichtungen gut abgestimmt sein. Das ist nicht der Fall. Ausserdem war ich dagegen, dass man grosse Sprachmodelle so schnell, schnell mitreguliert. Hier hätte es mehr Zeit gebraucht.
Manche sagen, es sei ein guter Schachzug gewesen, so schnell zu sein. So könnte sich der Brüssel-Effekt einstellen, bei dem die Regulierung weltweit zum Vorbild wird – wie es beim Datenschutz gelungen ist.
Diesen Effekt erlebe ich nicht. Andere Länder interessieren sich für die EU-Regulierung, aber sehen sie nicht als Vorbild. Man muss sich auch bewusst sein: Beim Datenschutz wurde 1992 die erste Richtlinie verfasst. Dann vergingen Jahre, in denen die Konzepte ausgearbeitet wurden, sich eine Kultur entwickelte. 2012 wurde die Grundverordnung (DSGVO) vorgeschlagen. Und dann vergingen weitere vier Jahre, bis sie unterschrieben war. Bei der AI Act dauerte der ganze Prozess nur drei Jahre.
Noch vor zehn Jahren überliess man den Abschluss des DSGVO-Gesetzes einfach der nächsten Legislaturperiode. Hatte die EU-Kommission damals weniger Angst vor populistischen Nachfolgern?
Ich weiss nicht, woran es liegt. Aber die alten Gesetze sind eindeutig besser, konsistenter. Auch die anderen neuen Digitalgesetze der EU haben keine hohe Qualität. Heute muss scheinbar alles in grosser Eile durchgepeitscht werden.
Früher waren Google und Facebook noch weniger mächtig. Hat der Lobbyismus der Tech-Branche einen negativen Einfluss?
Ich persönlich habe die Lobbys nie gespürt. Dabei war meine Tür immer offen für alle, die sich einbringen wollten. Und tatsächlich dreht sich der finale Text der AI Act stark um die Einschränkung von Technologie, er ist nicht besonders business-freundlich. So gesehen war das Lobbying nicht besonders erfolgreich.
Es gab diesen Moment, in dem Frankreich, Deutschland und Italien die Regulierung von allgemeinen KI-Modellen kritisierten, vor allem, weil die KI-Hoffnungsfirmen Mistral und Aleph Alpha protestiert hatten.
Leider hat man das damals als einen Versuch dieser Länder interpretiert, ihre Industrie schützen zu wollen. Als Bürokrat war ich neutral in dieser Debatte. Mir ging es einfach um gute und evidenzbasierte Gesetzgebung. Aber den Impuls, zu bremsen und sich stärker international abzustimmen, fand ich richtig. Doch in der allgemeinen Eile hat sich das Parlament durchgesetzt, stark beeinflusst von Zivilgesellschaft und Konsumentenschützern. Die Kommission, die die Stimme der Vernunft hätte sein sollen, hätte sich einschalten müssen.
Wie meinen Sie das?
Die Kommission ist nicht dazu da, Entscheidungen zu treffen. Das müssen das Parlament und der Rat der EU tun. Doch die Kommission hat in der EU am meisten Ressourcen und Wissen. Diese Expertise sollte sie nutzen, um sich aufgrund der Sachlage und Evidenz zu positionieren – damit gute Gesetze entstehen. Wenn sie das nicht tut, dann bricht die Logik dieses Systems zusammen. Dann braucht es den ganzen bürokratischen Apparat nicht.
Was würden Sie anders machen, wenn Sie neu anfangen könnten?
Ich würde so etwas Wichtiges nicht mehr mit so wenig Macht tun. Was das Gesetz angeht, habe ich heute meine Zweifel daran, ob man KI-Technologie überhaupt an sich regulieren sollte. Es wäre besser gewesen, spezifische Gesetzeslücken zu schliessen, statt auf den einen grossen Wurf zu setzen.
Und welche Möglichkeiten sehen Sie, Stand jetzt noch etwas zu ändern? Die AI Act tritt ja gerade nach und nach in Kraft.
Ich würde sie stoppen und das, was schon gilt, rückgängig machen – oder sie substanziell ändern. Denn jetzt haben wir Rechtsunsicherheit, weswegen auch viele darauf drängen, die Umsetzung zu pausieren. Der Text erlaubt viel Interpretationsspielraum. Es entsteht eine riesige Grauzone, in der insbesondere grosse Technologieunternehmen versuchen werden, ihre Ansichten durchzusetzen. Jetzt erstellt die Kommission Hunderte zusätzliche Seiten mit Richtlinien, Verhaltenskodizes, Vorlagen usw. Doch das ist keine Lösung. Wenn überhaupt, führen diese Dokumente zu noch mehr Verwirrung. Denn sie sind nicht gesetzlich bindend und bieten Unternehmen keine Sicherheit, nicht verklagt zu werden.
Was bedeutet diese Situation für KI-Unternehmen in der EU?
Es ist traurig. Ich bin ein Freund von Regulierung, aber nicht von jeder Regulierung. Gesetze sollten die Spielregeln sein, innerhalb derer sich dann die besten auf dem Markt durchsetzen. Ungenaue Gesetze wie dieses aber erreichen das Gegenteil. Firmen mit toller Technologie könnten gebremst werden, weil sie die Regulierung überfordert und sie negative Folgen fürchten. Manche Firmen werden sich ganz von KI fernhalten. Andere heuern jetzt Juristen an, stellen sicher, dass sie alle Vorgaben auf dem Papier erfüllen, und können daraus vielleicht sogar einen Vorteil schlagen. Es ist das Gegenteil von den fairen Wettbewerbsbedingungen für alle, die ich erreichen wollte.
nzz.ch