La leçon de Trump sur l'intelligence artificielle


Getty Images
La course à l'IA
Certains considèrent l'IA comme une ressource, tandis que d'autres la craignent. Deux tendances opposées se dégagent des réglementations adoptées aux États-Unis et dans l'UE. Bruxelles devrait s'inspirer des États-Unis pour adopter une approche libérale.
Sur le même sujet :
Il y a quatre semaines, toute l'attention en Europe était focalisée sur les dernières étapes des négociations tarifaires avec les États-Unis, conclues après des semaines difficiles par la rencontre informelle sur un terrain de golf en Écosse entre Trump et Ursula von der Leyen. Jusqu'à hier, ces négociations manquaient de détails essentiels sur les produits et les chaînes d'approvisionnement inclus dans la liste d'exemptions, la Commission européenne ayant annoncé hier seulement l'accord final sur une déclaration commune décrivant comment les droits de douane de 15 % aux États-Unis s'appliqueront à la grande majorité des produits européens, notamment les produits pharmaceutiques, les véhicules et les semi-conducteurs. Lorsque l'accord écossais a été annoncé, de nombreux observateurs et responsables politiques européens l'ont qualifié de capitulation sans gloire, comme s'ils venaient de découvrir la montagne de faiblesses européennes accumulées face aux États-Unis – faiblesses dans les domaines de la technologie, de l'énergie et de la défense. Une découverte singulière, sachant que ces faiblesses constituent aujourd'hui une matraque brandie avec une violence de chantage par les intimidations trumpiennes, mais en réalité, elles se sont accumulées au cours des trois dernières décennies, sous le regard passif de l'Europe .
Ces écarts risquent désormais de se creuser davantage. Il y a un mois, dans un contexte d'inattention généralisée suscitée par l'inquiétude suscitée par les droits de douane, les États-Unis ont adopté une série de réglementations profondément innovantes sur un sujet désormais essentiel à la compétitivité et à la productivité européennes : l'intelligence artificielle. Ces nouvelles réglementations américaines marquent une rupture radicale avec l'approche de l'administration Biden, et le plus intéressant est qu'elles vont à l'opposé de l'approche européenne adoptée avec l' AI Act . Ce dernier, étant un règlement européen et non une directive, est désormais en vigueur, pour les entités individuelles et les entreprises de toutes tailles, dans tous les pays de l'UE. Il est temps de se poser une question sérieuse : sommes-nous certains que l'approche européenne en matière d'IA est la bonne pour inverser la tendance, ou le nouveau paquet de réglementations américaines offre-t-il également à l'Europe de précieuses pistes pour une introspection indispensable ? Pour répondre à cette question, nous devons être clairs sur trois points : en quoi consiste le virage américain ? En quoi diffère-t-il de l'approche de l'UE ? Et enfin, que devons-nous faire, nous, Européens ?

Le plan de Trump, publié le 23 juillet, est ambitieux, comme le suggère son nom : « Winning the Race, America's AI Action Plan ». Il abroge formellement le décret 14110 de novembre 2023, par lequel l'administration Biden avait défini la mission, les responsabilités et la supervision des autorités fédérales en matière de développement de l'IA. L'approche de l'administration démocrate était, à certains égards, similaire à celle de l'Europe, visant principalement à atténuer les risques liés à l'IA , à protéger les droits civiques et l'équité, et à garantir la supervision des modèles d'IA avancés par des autorités telles que celles chargées de l'application du Defense Production Act.
En revanche, le plan de Trump change radicalement d'approche : il privilégie la déréglementation, le développement des infrastructures et la compétitivité mondiale, considérant le leadership américain en matière d'IA comme un impératif stratégique national, à promouvoir et à défendre vigoureusement à l'échelle mondiale. Le Plan d'action s'éloigne ainsi de l'accent mis sur la réglementation préventive. La priorité est désormais donnée à la facilitation de l'innovation dans le secteur privé, à la simplification des procédures d'autorisation et à l'établissement de normes fédérales d'approvisionnement axées sur la neutralité idéologique, et non sur des décisions dictées par des considérations politiques concernant telle ou telle limite à la prochaine frontière de l'IA générative.
Le Plan s'articule autour de trois piliers clés. Le premier, « Accélérer l'innovation en IA », met l'accent sur la promotion des modèles open source et open-weight (ceux dont les paramètres numériques de l'apprentissage automatique sont publics, même si ceux du modèle d'origine ne le sont pas), les partenariats de recherche public-privé, l'adoption rapide de l'IA dans des secteurs spécifiques tels que la santé, l'industrie manufacturière et l'agriculture, et l'investissement dans les infrastructures scientifiques.
Le deuxième pilier, « Construire l’infrastructure d’IA de l’Amérique », se concentre sur l’accélération de l’obtention des permis pour les centres de données, les usines de semi-conducteurs et le soutien des systèmes électriques ; la modernisation du réseau électrique ; l’amélioration de la résilience cybernétique et physique ; et le développement de la main-d’œuvre qualifiée.
Le troisième pilier, « Leadership de l'IA en matière de sécurité mondiale et de géopolitique », vise à étendre la portée mondiale de l'IA américaine en favorisant les exportations de solutions d'IA verticalisées, en renforçant les contrôles à l'exportation et en examinant les investissements à l'étranger, ainsi qu'en s'engageant aussi activement que possible dans les organismes de normalisation et en les alignant sur les pays alliés militairement des États-Unis en matière de réglementation. Parmi les principales mesures figurent de nouvelles exigences en matière d'approvisionnement exigeant le respect des « Principes d'IA impartiale » pour les grands modèles linguistiques utilisés par les agences fédérales ; un financement accru, piloté par les ministères du Travail et du Trésor, pour le développement et la reconversion des professionnels de l'IA ; des investissements dans les ressources de données publiques et les infrastructures d'évaluation ; et la mise en œuvre et la facilitation de bacs à sable réglementaires pour soutenir l'expérimentation et l'innovation privées dans tous les secteurs. L'accent mis par le plan sur les infrastructures devrait catalyser d'importantes dépenses d'investissement - potentiellement 90 milliards de dollars d'investissements dans les centres de données au cours des prochaines années - avec des projections selon lesquelles les charges de travail de l'IA pourraient représenter jusqu'à 9 % de la consommation d'électricité aux États-Unis d'ici 2030. Les cas d'utilisation spécifiques à l'industrie sont également facilités, notamment la découverte de médicaments et les diagnostics basés sur l'IA dans les soins de santé, la maintenance prédictive dans la fabrication soutenue par la modernisation du réseau électrique et les outils exportables pour l'agriculture de précision .
Le Plan conclut également par quelques principes directeurs visant à éviter les litiges et les retards dans la mise en œuvre de l'IA dus à des conflits potentiels concernant la réglementation, les marchés publics fédéraux, l'alignement sur les normes internationales d'autres pays ou la surveillance des importations et exportations d'IA par les agences fédérales compétentes. L'impératif est d'agir rapidement, ce qui explique peut-être pourquoi les réglementations européennes et italiennes ne prévoient pratiquement jamais de dispositions anti-contentieux ex ante, mais les multiplient sans les aborder au préalable .
Trois décrets : autorisations rapides, sur l'idéologie, exportations à gogoLe plan d’IA de Trump était accompagné de trois décrets présidentiels visant à commencer immédiatement à mettre en œuvre des éléments clés. Le premier objectif est d'accélérer l'obtention des permis fédéraux pour les infrastructures de centres de données. Plus précisément, cela accélérera la réalisation des projets privés nécessitant un investissement en capital d'au moins 500 millions de dollars, une production d'électricité engagée d'au moins 100 MgW, ou autrement désignés comme « projets admissibles » par le secrétaire à la Défense, à l'Intérieur ou au Commerce. L'utilisation des terres fédérales sera approuvée et un fonds dédié sera créé au sein du département du Commerce pour soutenir financièrement toutes les phases de construction des centres de données. La multitude de permis environnementaux requis par la législation actuelle sera supprimée . Les entreprises souhaitant construire des centres de données seront soulagées des démarches administratives fastidieuses en demandant directement aux départements de l'Intérieur et de l'Énergie de consulter le département du Commerce afin d'obtenir les permis de site appropriés, conformément aux lois fédérales applicables.
Le deuxième décret présidentiel est celui qui suscite le plus de controverses. En théorie, il impose une « IA impartiale », ce qui signifie que ses modèles sont exempts de tout parti pris idéologique et ne sont pas susceptibles de soutenir les deep fakes qui dominent Internet et les plateformes numériques. En réalité, le décret présidentiel, outre l'obligation pour les autorités fédérales d'interdire tout modèle d'IA non fondé sur des vérités historiques et scientifiques incontestables, cible explicitement la culture woke, interdisant explicitement les masters en droit qui proposent des « réponses manipulatrices favorisant les critères divins », c'est-à-dire les objectifs de diversité, d'équité et d'inclusion. De ce point de vue, le décret est lui-même fortement idéologique, cohérent avec l'ensemble du cadre culturel et social de la présidence Trump, mais en totale contradiction avec le principe d'une IA « non idéologique ». Il s'agit de régimes autoritaires, ceux qui ne qualifient d'« idéologie dangereuse » que celle de leurs adversaires politiques.
Enfin, le troisième décret de Trump vise à garantir que les États-Unis soient à la pointe du développement des technologies d'IA et que ces technologies, normes et modèles de gouvernance américains en la matière soient largement adoptés dans le monde entier, afin de renforcer les relations avec les alliés des États-Unis. Il charge le secrétaire au Commerce d'établir et de mettre en œuvre un programme américain d'exportation d'IA dans un délai de 90 jours. Une invitation à participer sera adressée à tous les grands groupes américains actifs dans chaque secteur lié à l'IA, et un appel public à propositions sera immédiatement lancé auprès des consortiums dirigés par l'industrie. Chaque proposition devra identifier des pays cibles spécifiques pour l'exportation et identifier les incitations fédérales appropriées requises . Le secrétaire d'État est chargé de coordonner la participation des États-Unis aux initiatives multilatérales et aux partenariats nationaux, tandis que le Groupe d'action pour la diplomatie économique (EDAG) fédéral coordonnera la mobilisation des outils de financement fédéraux pour soutenir les programmes d'exportation d'IA.
Le contre-modèle de l’UE doit être changéOn peut avoir les pires jugements possibles sur Trump. Cet auteur, par exemple, a un jugement terrible. Mais ce jugement ne m'empêche pas personnellement de croire que les décisions que son administration vient de prendre en matière d'IA devraient être considérées comme un exemple à suivre en Europe. À l'exception évidemment du fort parti pris contre l'inclusion sociale, ethnique et de genre. La loi européenne sur l'IA est depuis longtemps accusée, à juste titre, par la grande majorité des entreprises d'adopter une logique erronée . Elle est en réalité fortement et idéologiquement (dans ce cas, l'adverbe semble juste) motivée par une stratégie de réglementation préventive : elle définit des catégories de risques (inacceptable, élevé, limité, minimal) et impose des exigences ex ante strictes aux systèmes d'IA jugés « à risque » avant leur commercialisation ou leur utilisation. Cela oblige les fournisseurs à démontrer a priori le respect de nombreuses obligations (évaluation des risques, transparence, supervision humaine, qualité des données, etc.) pour tout système relevant de nombreux domaines considérés comme sensibles (pas seulement la santé, les transports, l'éducation et les médias).

Le professeur Carlo Alberto Carnevale Maffé , s'adressant aux étudiants de Bocconi inscrits à un master en entrepreneuriat et souhaitant travailler sur l'IA, a présenté une superbe diapositive qui résume tout. Si vous souhaitez développer une application d'IA dans l'UE, vous devez d'abord : créer un système de gestion des risques rigoureux et complet ; garantir aux autorités que le système est entraîné sur des données aux propriétés statistiques appropriées ; rédiger une documentation technique détaillée avant toute publication ; créer un enregistrement automatique des événements tout au long de la durée de vie du système ; construire un système garantissant l'interprétation complète des résultats par les autorités de contrôle ; créer un système incluant l'installation, la mise en œuvre et la maintenance du suivi post-commercialisation ; maintenir l'ensemble de ces éléments opérationnels pendant les dix prochaines années ; désigner un représentant autorisé établi dans l'UE ; se soumettre à une évaluation de conformité préalable par l'autorité désignée ; obtenir une évaluation d'impact sur les droits fondamentaux ; rédiger une déclaration officielle de conformité de l'UE ; et s'enregistrer dans la base de données européenne pertinente. En cas d'erreur ou de non-conformité, la sanction peut atteindre 15 millions d'euros ou 3 % du chiffre d'affaires total.
Ainsi conçue, la loi européenne sur l'IA freine l'innovation et l'investissement, multiplie les charges organisationnelles et administratives non seulement pour les fournisseurs, mais aussi pour toute entreprise adoptant des modèles et des logiciels d'IA, et produit l'effet inverse de l'accélération et de l'expérimentation massive de l'IA dans l'industrie manufacturière et les services, qui devraient pourtant être la priorité absolue de l'Europe, et qui s'accélèrent à toute vitesse. Parallèlement, la Chine génère 40 fois plus de demandes de brevets en IA que l'UE (et cinq fois plus que les États-Unis), sachant qu'en 2023, 109 modèles d'IA générative fondamentaux avaient été développés aux États-Unis, contre seulement sept dans l'UE, et que les États-Unis ont déjà construit six fois plus de centres de données que l'Allemagne, l'Italie et la France réunies.
Il est temps de le dire. L'approche qui considère l'IA comme un risque à éviter, plutôt que comme un puissant moteur de productivité et d'emploi, doit être renversée . Si l'Europe était véritablement dirigée par des progressistes, elle démantèlerait l'évaluation des risques ex ante qui tue l'IA dans les PME et la renverserait par une approche qui réduit les coûts plutôt que de les augmenter, encourage les bacs à sable expérimentaux plutôt que de les entraver, et transfère la charge de l'évaluation des risques ex post, plutôt qu'ex ante, non pas aux entreprises, mais aux régulateurs vigilants. En cela, Trump a beaucoup à nous apprendre.
En savoir plus sur ces sujets :
ilmanifesto