Quelle est la consommation énergétique de l'IA ? Ceux qui savent ne le disent pas.

Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Poland

Down Icon

Quelle est la consommation énergétique de l'IA ? Ceux qui savent ne le disent pas.

Quelle est la consommation énergétique de l'IA ? Ceux qui savent ne le disent pas.
Un nombre croissant de recherches tentent de chiffrer la consommation d’énergie et l’IA, même si les entreprises à l’origine des modèles les plus populaires gardent secrètes leurs émissions de carbone.
Photographie : Bloomberg/Getty Images

« On est souvent curieux de savoir combien d'énergie une requête ChatGPT consomme », écrivait Sam Altman , PDG d' OpenAI , dans un long article de blog publié la semaine dernière. Une requête moyenne, écrit-il, consomme 0,34 wattheure : « À peu près la consommation d'un four en un peu plus d'une seconde, ou celle d'une ampoule à haute efficacité en quelques minutes. »

Pour une entreprise comptant 800 millions d'utilisateurs actifs hebdomadaires (et en constante augmentation ), la question de la consommation énergétique de toutes ces recherches devient de plus en plus pressante. Cependant, les experts affirment que le chiffre d'Altman n'a pas beaucoup de sens sans un contexte public plus détaillé d'OpenAI sur la manière dont il est parvenu à ce calcul, notamment la définition d'une requête « moyenne », l'inclusion ou non de la génération d'images, et la prise en compte ou non par Altman de la consommation énergétique supplémentaire, comme celle liée à l'entraînement des modèles d'IA et au refroidissement des serveurs d'OpenAI.

Par conséquent, Sasha Luccioni, responsable climat chez Hugging Face, une entreprise d'IA, n'accorde pas beaucoup d'importance au chiffre d'Altman. « Il aurait pu le sortir de son cul », dit-elle. (OpenAI n'a pas répondu à une demande d'informations complémentaires sur la manière dont il est arrivé à ce chiffre.)

Alors que l'IA envahit nos vies, elle promet également de transformer nos systèmes énergétiques, augmentant les émissions de carbone au moment même où nous luttons contre le changement climatique. Aujourd'hui, un nouveau corpus de recherche, en pleine expansion, tente de chiffrer précisément la quantité de carbone que nous émettons réellement grâce à l'utilisation de l'IA.

Cet effort est compliqué par le fait que des acteurs majeurs comme OpenAi divulguent peu d'informations environnementales. Une analyse soumise à un examen par les pairs cette semaine par Luccioni et trois autres auteurs examine la nécessité d'une plus grande transparence environnementale dans les modèles d'IA. Dans la nouvelle analyse de Luccioni, elle et ses collègues utilisent les données d' OpenRouter , un classement du trafic des modèles de langage à grande échelle (LLM), pour constater que 84 % de l'utilisation des LLM en mai 2025 concernait des modèles sans aucune divulgation environnementale. Cela signifie que les consommateurs choisissent massivement des modèles dont les impacts environnementaux sont totalement inconnus.

« Je suis stupéfait qu'on puisse acheter une voiture et savoir combien elle consomme, alors que nous utilisons tous ces outils d'IA au quotidien et que nous ne disposons d'aucun indicateur d'efficacité, de facteurs d'émission, rien du tout », déclare Luccioni. « Ce n'est ni obligatoire, ni réglementaire. Compte tenu de la situation actuelle face à la crise climatique, cela devrait être une priorité pour les régulateurs du monde entier. »

En raison de ce manque de transparence, explique Luccioni, le public est exposé à des estimations absurdes, mais prises pour argent comptant. Vous avez peut-être entendu dire, par exemple, qu'une requête ChatGPT moyenne consomme dix fois plus d'énergie qu'une recherche Google moyenne. Luccioni et ses collègues attribuent cette affirmation à une déclaration publique de John Hennessy, président d'Alphabet, la société mère de Google, faite en 2023.

L'affirmation d'un membre du conseil d'administration d'une entreprise (Google) concernant le produit d'une autre entreprise avec laquelle il n'a aucun lien (OpenAI) est pour le moins ténue. Pourtant, l'analyse de Luccioni révèle que ce chiffre a été répété à maintes reprises dans la presse et les rapports politiques. (Alors que j'écrivais cet article, j'ai reçu une proposition contenant exactement cette statistique.)

« On a transformé une remarque improvisée en une statistique concrète qui éclaire les politiques et la façon dont les gens perçoivent ces choses », explique Luccioni. « Le véritable problème, c'est que nous n'avons pas de chiffres. Même les calculs improvisés sont souvent considérés comme la référence absolue, mais ce n'est pas le cas. »

Une façon d'explorer les coulisses et d'obtenir des informations plus précises est d'utiliser des modèles open source. Certains géants de la technologie, comme OpenAI et Anthropic, conservent leurs modèles propriétaires, ce qui empêche les chercheurs externes de vérifier leur consommation d'énergie de manière indépendante. En revanche, d'autres entreprises rendent publiques certaines parties de leurs modèles, permettant ainsi aux chercheurs d'évaluer plus précisément leurs émissions.

Une étude publiée jeudi dans la revue Frontiers of Communication a évalué 14 grands modèles linguistiques open source, dont deux modèles Meta Llama et trois modèles DeepSeek, et a constaté que certains consommaient jusqu'à 50 % d'énergie en plus que les autres modèles de l'ensemble de données répondant aux questions des chercheurs. Les 1 000 questions de référence soumises aux LLM comprenaient des questions sur des sujets tels que l'histoire et la philosophie au lycée ; la moitié des questions étaient formatées à choix multiples, avec des réponses d'un seul mot, tandis que l'autre moitié était soumise sous forme de questions ouvertes, permettant un format plus libre et des réponses plus longues. Les chercheurs ont constaté que les modèles de raisonnement généraient beaucoup plus de jetons de réflexion – des mesures du raisonnement interne générées par le modèle lors de la production de sa réponse, qui sont un signe distinctif d'une consommation d'énergie plus élevée – que les modèles plus concis. Ces modèles, sans surprise, étaient également plus précis sur des sujets complexes. (Ils avaient également des problèmes de concision : pendant la phase à choix multiples, par exemple, les modèles les plus complexes renvoyaient souvent des réponses avec plusieurs jetons, malgré des instructions explicites de ne répondre qu'à partir de la gamme d'options fournies.)

Maximilian Dauner, doctorant à l'Université des sciences appliquées de Munich et auteur principal de l'étude, espère que l'utilisation de l'IA évoluera pour réfléchir à une utilisation plus efficace de modèles moins énergivores pour différentes requêtes. Il imagine un processus où les questions plus petites et plus simples sont automatiquement dirigées vers des modèles moins énergivores, mais qui fourniront néanmoins des réponses précises. « Même les modèles plus petits peuvent obtenir d'excellents résultats sur des tâches plus simples, sans pour autant émettre une quantité importante de CO2 », explique-t-il.

Certaines entreprises technologiques le font déjà. Google et Microsoft ont déjà indiqué à WIRED que leurs fonctionnalités de recherche utilisent des modèles plus petits lorsque cela est possible, ce qui peut également accélérer les réponses des utilisateurs. Mais en général, les fournisseurs de modèles n'ont pas fait grand-chose pour inciter les utilisateurs à consommer moins d'énergie. La rapidité avec laquelle un modèle répond à une question, par exemple, a un impact important sur sa consommation d'énergie, mais cela ne s'explique pas lorsque les produits d'IA sont présentés aux utilisateurs, explique Noman Bashir, chercheur en informatique et impact climatique au Climate and Sustainability Consortium du MIT.

« L'objectif est de fournir toutes ces inférences le plus rapidement possible afin que vous ne quittiez pas la plateforme », explique-t-il. « Si ChatGPT commence soudainement à vous donner une réponse au bout de cinq minutes, vous vous tournerez vers un autre outil qui vous fournira une réponse immédiate. »

Cependant, de nombreux autres facteurs doivent être pris en compte lors du calcul de la consommation énergétique des requêtes d'IA complexes, car ce n'est pas seulement théorique : les conditions d'exécution des requêtes dans le monde réel sont importantes. Bashir souligne que le matériel physique joue un rôle dans le calcul des émissions. Dauner a mené ses expériences sur un GPU Nvidia A100, mais le GPU H100 de Nvidia, spécialement conçu pour les charges de travail d'IA et qui, selon l'entreprise , connaît un succès croissant, est beaucoup plus énergivore.

L'infrastructure physique joue également un rôle en matière d'émissions. Les grands centres de données nécessitent des systèmes de refroidissement, d'éclairage et d'équipements réseau, qui consomment tous davantage d'énergie ; ils fonctionnent souvent selon des cycles diurnes, avec une pause la nuit lorsque les requêtes sont moins nombreuses. Ils sont également raccordés à différents types de réseaux, alimentés majoritairement par des combustibles fossiles et d'autres par des énergies renouvelables, selon leur localisation.

Bashir compare les études qui analysent les émissions issues des requêtes d'IA sans tenir compte des besoins des centres de données au fait de soulever une voiture, d'appuyer sur l'accélérateur et de compter les tours d'une roue pour réaliser un test de consommation de carburant. « On ne tient pas compte du fait que cette roue doit transporter la voiture et le passager », explique-t-il.

Plus crucial encore pour notre compréhension des émissions de l'IA, les modèles open source comme ceux utilisés par Dauner dans son étude ne représentent qu'une fraction des modèles d'IA utilisés aujourd'hui par les consommateurs. Entraîner un modèle et mettre à jour les modèles déployés consomment énormément d'énergie, des chiffres que de nombreuses grandes entreprises gardent secrets. On ignore, par exemple, si la statistique de l'ampoule sur ChatGPT, présentée par Altman d'OpenAI, prend en compte toute l'énergie utilisée pour entraîner les modèles alimentant le chatbot. Sans plus de transparence, le public passe tout simplement à côté d'une grande partie des informations nécessaires pour commencer à comprendre l'impact réel de cette technologie sur la planète.

« Si j’avais une baguette magique, je rendrais obligatoire pour toute entreprise mettant en production un système d’IA, n’importe où, dans le monde, dans n’importe quelle application, de divulguer les chiffres du carbone », déclare Luccioni.

Paresh Dave a contribué au reportage.

wired

wired

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow