INTERVIEW - « Le contraire de ce que je voulais réaliser » : l'auteur principal de la loi européenne sur l'IA révèle tout


Il est le principal auteur de la principale loi européenne sur l'IA. Il y a consacré des années de sa vie. Mais aujourd'hui, Gabriele Mazzini considère la loi sur l'IA comme un échec. À tel point qu'il n'a plus pu se résoudre à poursuivre son travail. Il a même démissionné de son poste bien rémunéré à la Commission européenne. Il explique pour la première fois au journal NZZ comment, selon lui, une loi sensée est devenue un monstre.
NZZ.ch nécessite JavaScript pour certaines fonctions importantes. Votre navigateur ou votre bloqueur de publicités l'empêche actuellement.
Veuillez ajuster les paramètres.
Monsieur Mazzini, comment êtes-vous devenu l’auteur principal de la loi sur l’IA ?
Mon intérêt pour la réglementation technologique m'a conduit à la Commission européenne en 2017. Auparavant, j'ai travaillé dans l'aide au développement en Afrique et dans des startups new-yorkaises. Ces deux expériences m'ont permis de comprendre l'impact de la technologie. Au sein de l'UE, je me suis concentré dès le départ sur l'impact de l'IA sur la responsabilité et les questions éthiques. Lorsque Ursula von der Leyen a décidé de réglementer l'IA en 2019, j'ai été chargé de rédiger ce texte.
Comment pouvez-vous imaginer travailler sur l'AI Act ?
Je me suis documenté sur le sujet, j'ai discuté avec des experts et j'ai conçu la structure de la législation : l'idée était de réglementer les produits d'IA, et non l'IA elle-même, et de les classer par catégories de risques. J'ai dirigé une petite équipe ; nous avons tous les trois rédigé le texte de la proposition initiale de la Commission européenne.
La législation européenne sur l'IA vise à uniformiser les règles applicables à tous les produits intégrant l'IA. Aucune règle n'est applicable aux applications à faible risque. Les applications inacceptables, telles que certaines utilisations de la surveillance biométrique en temps réel, sont interdites dans toute l'UE. De plus, les systèmes d'IA utilisés dans des domaines à haut risque comme les écoles, les missions de police ou les candidatures à un emploi doivent respecter des normes de qualité.
Suite à la publication de Chat-GPT, les législateurs ont ajouté une section sur ces modèles d'IA « à usage général ». Les fabricants doivent, par exemple, divulguer les données utilisées pour la formation et atténuer les « risques systémiques ».
Il a été publié en avril 2021. Vous avez donc travaillé sur le projet pendant près de trois ans ?
La rédaction a été relativement rapide. L'effort principal a consisté en des recherches, une coordination et des négociations préalables avec différents services.
La loi sur l'IA entre progressivement en vigueur depuis ce printemps. Quel est son lien avec votre projet initial ?
L'idée de base de réglementer l'IA comme un produit, c'est-à-dire d'imposer des normes de sécurité basées sur le risque, m'appartenait. Mais la loi actuelle est bien plus complexe, englobe davantage de sujets et prescrit davantage de détails, souvent sans raison valable. Cela se voit déjà dans sa forme : les 85 articles, 89 préambules et 9 annexes initiaux sont devenus 113 articles, 180 préambules et 13 annexes. À cela s'ajoutent des documents explicatifs. Le pire, cependant, est que le nouveau texte manque de clarté.
Que s'est-il passé entre-temps ?
Réponse courte : Chat-GPT et une énorme pression temporelle. Mais permettez-moi de développer. Dans la législation européenne, la Commission propose des textes que le Parlement et le Conseil de l'Union européenne, composés des ministres compétents des États membres, doivent approuver. Les détails sont souvent modifiés. Cela nécessite des discussions. Le processus prend du temps. Mais après la publication de Chat-GPT, une pression énorme s'est soudainement installée sur le sujet. Des scénarios apocalyptiques ont circulé. Vous souvenez-vous de la lettre du Future of Life Institute, également signée par Elon Musk, qui appelait à une pause de six mois dans le développement de l'IA ? Cela a impressionné de nombreux responsables politiques et bureaucrates. De plus, le mandat du Parlement et de la Commission von der Leyen touchait à sa fin, et l'on craignait une situation totalement inédite après les nouvelles élections. Chacun ambitionnait de faire adopter une loi rapidement afin de pouvoir dire : « Nous nous en occupons pour vous. Nous avons une longueur d'avance et la situation est sous contrôle. »
Cette panique concernant une fin imminente du monde était évidemment exagérée dans la perspective actuelle.
Oui, le discours a complètement changé. Il y a environ un an, le rapport Draghi était publié, soulignant le retard considérable de l'UE en matière d'entreprises technologiques. Nous sommes préoccupés par la surréglementation. Lorsque la loi sur l'IA était en discussion, ce n'était pas un problème. En 2023, Ursula von der Leyen a évoqué , dans son discours sur l'état de l'Union, le risque que l'IA anéantisse l'humanité. C'est extraordinaire. Mais à l'époque, le PDG d'Open AI avait également appelé à une réglementation stricte dans un billet de blog. « Nous avons construit cet engin extrêmement dangereux, écoutez-nous pour que nous puissions vous dire comment vous protéger. » Tel était le discours de l'époque.
Accusez-vous les politiciens et les fonctionnaires impliqués d’être mal informés sur les enjeux ?
Oui. Chacun aurait dû prendre le temps de se renseigner, de réfléchir, de recueillir des avis divergents et ainsi de définir ses propres priorités. J'ai compris dès 2023 que nous étions sur la mauvaise voie. L'alarmisme et la pression du temps ne permettent pas d'élaborer des lois solides.
Qu'en avez-vous pensé ?
Je me sentais seul. À l'automne 2023, j'ai fait part à mes supérieurs de mon désaccord avec ce qui se passait. Mais cela n'a rien changé. Bien sûr, je n'avais aucun pouvoir d'intervenir ; j'étais trop bas dans la hiérarchie et je n'assistais pas aux réunions importantes. Mais j'espérais que mon avis d'expert serait pris en compte ; après tout, j'avais travaillé plus que quiconque sur ce dossier. Et, plus important encore, il s'agissait de l'une des lois européennes les plus importantes de l'histoire. Tout le monde aurait dû le comprendre.
En décembre 2023, les trois institutions ont annoncé publiquement qu’elles étaient parvenues à un accord.
Cela a été présenté comme une victoire majeure. Cependant, l'approbation des États membres de l'UE était toujours en attente. En février 2024, la loi sur l'IA a également levé cet obstacle. J'ai alors décidé : soit on me donnait une chance de changer les choses, soit je démissionnais. Car je ne voulais pas passer ma vie à mettre en œuvre quelque chose en quoi je ne croyais pas – et sur lequel je n'avais aucun pouvoir d'influence.
Ses supérieurs n’ont visiblement pas cédé.
Je n'ai reçu aucune réponse. Ils ont accepté de perdre la personne qui avait le plus travaillé sur ce document.
Si vous étiez resté, auriez-vous été promu ?
Si je n'avais pas réagi, je l'aurais probablement fait. Après avoir mené à bien un projet d'une telle envergure, on obtient généralement une promotion. Mais à quoi cela m'aurait-il servi ? J'aurais renoncé à mon intégrité. J'ai toujours aimé mon travail. Au sein de la Commission, on est profondément convaincu que l'on œuvre pour une bonne cause. Quand on a soi-même le sentiment que les choses vont dans la mauvaise direction, c'est difficile à supporter. Par coïncidence, j'ai quitté la Commission le jour même de l'entrée en vigueur de la loi sur l'IA, le 1er août 2024. Je suis très soulagé de pouvoir aujourd'hui exprimer mon opinion personnelle en tant que citoyen.
Expliquez votre problème avec la version actuelle du règlement.
Nous avons commencé par nous demander : comment promouvoir une nouvelle technologie tout en minimisant les risques ? Nous souhaitions instaurer la confiance grâce à des normes de qualité. Quiconque développe un produit d'IA dans un domaine à risque doit garantir ces normes. C'est normal. Mais comme la technologie et les cas d'utilisation évoluent encore, nous devrions nous efforcer de ne réglementer que ce qui est nécessaire et de n'étendre les cas d'utilisation qu'ultérieurement. De plus, de nombreuses autres réglementations s'appliquent déjà à l'IA, par exemple en matière de protection des données. Les nouvelles obligations en matière d'IA devraient être en adéquation avec ces règles. Ce n'est pas le cas. J'étais également opposé à une réglementation aussi rapide des grands modèles linguistiques. Il aurait fallu plus de temps.
Certains estiment que cette rapidité d'action a été judicieuse. Cela pourrait engendrer l'effet Bruxelles, où la réglementation deviendrait un modèle mondial – comme ce fut le cas pour la protection des données.
Je ne ressens pas cet effet. D'autres pays s'intéressent à la réglementation européenne, mais ne la considèrent pas comme un modèle. Il faut également savoir que la première directive sur la protection des données a été rédigée en 1992. Des années ont ensuite passé, au cours desquelles les concepts et une culture se sont développés. En 2012, le Règlement général sur la protection des données (RGPD) a été proposé. Quatre années supplémentaires se sont écoulées avant sa promulgation. Avec la loi sur l'IA, le processus n'a duré que trois ans.
Il y a tout juste dix ans, la finalisation du RGPD était tout simplement reportée à la législature suivante. La Commission européenne craignait-elle alors moins les successeurs populistes ?
J'ignore la raison. Mais les anciennes lois sont clairement meilleures et plus cohérentes. Les autres nouvelles lois numériques de l'UE ne sont pas non plus de grande qualité. De nos jours, tout semble devoir être adopté à la va-vite.
Google et Facebook étaient autrefois encore moins puissants. Le lobbying de l'industrie technologique a-t-il un impact négatif ?
Personnellement, je n'ai jamais ressenti la pression du lobbying. Ma porte était toujours ouverte à quiconque souhaitait s'impliquer. De fait, le texte final de la loi sur l'IA est fortement axé sur la restriction des technologies ; il n'est pas particulièrement favorable aux entreprises. En ce sens, le lobbying n'a pas été particulièrement efficace.
Il y a eu ce moment où la France, l'Allemagne et l'Italie ont critiqué la réglementation des modèles généraux d'IA, principalement parce que les espoirs de l'IA Mistral et Aleph Alpha avaient protesté.
Malheureusement, cela a été interprété à l'époque comme une tentative de ces pays de protéger leurs industries. En tant que fonctionnaire, j'étais neutre dans ce débat. Je me souciais simplement d'une législation de qualité, fondée sur des données probantes. Mais je pensais que la volonté de ralentir les choses et de renforcer la coordination internationale était justifiée. Dans la précipitation générale, cependant, le Parlement a prévalu, fortement influencé par la société civile et les défenseurs des consommateurs. La Commission, qui aurait dû être la voix de la raison, aurait dû intervenir.
Que veux-tu dire?
La Commission n'est pas là pour prendre des décisions. Cette tâche incombe au Parlement et au Conseil de l'UE. Pourtant, c'est elle qui dispose du plus de ressources et de connaissances au sein de l'UE. Elle devrait utiliser cette expertise pour se positionner sur la base de faits et de preuves, afin que de bonnes lois soient élaborées. Si elle ne le fait pas, la logique de ce système s'effondre. Cet appareil bureaucratique n'est alors plus nécessaire.
Que feriez-vous différemment si vous pouviez recommencer ?
Je ne referais pas quelque chose d'aussi important avec si peu de pouvoir. Quant à la loi, je doute aujourd'hui que l'IA doive être réglementée. Il aurait été préférable de combler des lacunes juridiques spécifiques plutôt que de compter sur une seule avancée majeure.
Et quelles opportunités de changement voyez-vous à ce stade ? La loi sur l'IA entre progressivement en vigueur.
Je l'arrêterais et annulerais ce qui est déjà en place, voire le modifierais en profondeur. Car nous sommes actuellement confrontés à une incertitude juridique, ce qui explique pourquoi beaucoup réclament une suspension de la mise en œuvre. Le texte laisse une large place à l'interprétation. Cela crée une vaste zone grise dans laquelle les grandes entreprises technologiques, en particulier, tenteront d'imposer leur point de vue. La Commission crée désormais des centaines de pages supplémentaires de lignes directrices, de codes de conduite, de modèles, etc. Mais ce n'est pas une solution. Au contraire, ces documents ajoutent encore à la confusion, car ils ne sont pas juridiquement contraignants et n'offrent aux entreprises aucune garantie de ne pas être poursuivies en justice.
Que signifie cette situation pour les entreprises d’IA dans l’UE ?
C'est triste. Je suis partisan de la réglementation, mais pas de toute réglementation. Les lois devraient être les règles du jeu, et permettre aux meilleurs du marché de l'emporter. Or, des lois vagues comme celle-ci produisent l'effet inverse. Les entreprises dotées d'une technologie de pointe pourraient être ralenties, submergées par la réglementation et craignant des conséquences négatives. Certaines entreprises se détourneront complètement de l'IA. D'autres engageront désormais des avocats, s'assureront de remplir toutes les conditions sur papier et pourraient même en tirer un avantage. C'est tout le contraire de l'égalité des chances pour tous que je souhaitais.
nzz.ch