Image Description

Prisca Huguenot

14 juillet 2025
Image Description

Consommation électrique

L’intelligence artificielle, une gourmande en énergie ? Pas encore, mais…

Source : Pexels

Chaque fois que vous échangez avec un chatbot IA comme ChatGPT, une partie de cette magie repose sur une infrastructure énergivore : les datacenters. Ces centres de calcul massifs hébergent les modèles de langage de nouvelle génération et nécessitent des ressources considérables, notamment en électricité et en refroidissement. Mais est-ce aussi dramatique qu’on le prétend ?

Dans un billet de blog, Sam Altman, CEO d’OpenAI, a récemment estimé qu’une requête adressée à ChatGPT consomme en moyenne 0,34 wattheure. C’est à peu près l’énergie nécessaire pour faire fonctionner un four pendant une seconde, ou une ampoule basse consommation pendant quelques minutes. Côté eau, chaque prompt entraînerait la consommation d’environ 0,000085 gallon (soit un quinzième de cuillère à café), principalement utilisée pour le refroidissement.

Une estimation confirmée par la recherche suisse

Ces chiffres sont jugés crédibles par Marcel Salathé, chercheur à l’EPFL. Il explique avoir obtenu un résultat similaire — autour de 0,2 wattheure par requête — lors de ses propres calculs, centrés sur des interactions textuelles uniquement. La légère différence s’explique, selon lui, par l’inclusion par OpenAI de requêtes multimédias (génération d’images ou vidéos) dans leur moyenne.

Ces valeurs restent bien inférieures aux estimations les plus pessimistes, qui tablent sur une consommation dix fois supérieure. Ce qui nuance quelque peu les discours catastrophistes sur le coût énergétique des IA conversationnelles.

Le vrai défi : les agents IA

Cependant, l’avenir pourrait bouleverser ce fragile équilibre. Marcel Salathé attire l’attention sur une évolution majeure : l’essor des agents IA. Contrairement aux chatbots actuels, les agents sont conçus pour effectuer des tâches complexes de manière autonome, souvent en chaîne, et nécessitant de nombreuses interactions et appels API.

« Nous sous-estimons peut-être aujourd’hui de manière dramatique notre consommation énergétique globale », écrit le chercheur. Il anticipe une « explosion imminente de notre besoin énergétique », alimentée par l’automatisation croissante via l’intelligence artificielle.

Chatbots : un usage encore sobre

Pour l’heure, les interactions simples avec des IA génératives textuelles ne représentent pas une menace énergétique majeure. Ce sont surtout les déploiements à grande échelle, les modèles multimodaux intensifs et les agents autonomes qui doivent être surveillés de près.

À mesure que l’IA devient un outil professionnel courant, notamment dans les environnements cloud, la question de l’empreinte énergétique devient un enjeu stratégique, tant pour les entreprises que pour les politiques publiques.

Les commentaires sont clos

Newsletter

2022 © Tous droits réservés.