Pourquoi les chatbots d’IA consomment-ils autant d’énergie ?

Les chatbots d’IA sont de véritables ogres énergétiques. Mais pourquoi utilisent-ils autant d’électricité ?

Ces dernières années, ChatGPT a connu une popularité fulgurante, avec près de 200 millions d’utilisateurs qui saisissent au total plus d’un milliard de requêtes sur l’application chaque jour. Ces requêtes paraissent exécutées comme par magie. Mais en coulisses, les chatbots IA consomment une quantité énorme d’énergie. En 2023, les centres de données utilisés pour entraîner et exploiter l’IA représentaient 4,4 pour cent de la consommation électrique aux États-Unis. Dans le monde, ces centres comptent pour environ 1,5 pour cent de la consommation énergétique globale. Et ces chiffres devraient exploser, au moins doubler d’ici 2030 avec la hausse de la demande en IA.

« Il y a trois ans à peine, ChatGPT n’existait même pas encore », explique Alex de Vries-Gao, chercheur en durabilité des technologies émergentes à la Vrije Universiteit d’Amsterdam et fondateur de la plateforme Digiconomist, dédiée à révéler les effets inattendus des tendances digitales. « Et désormais, on parle d’une technologie qui va bientôt être responsable de près de la moitié de la consommation électrique de tous les centres de données mondiaux. »

Mais qu’est-ce qui rend les chatbots d’IA aussi énergivores ? La réponse réside dans l’échelle massive de ces outils. Deux étapes de l’IA utilisent particulièrement beaucoup d’énergie : l’entraînement et l’inférence, précise Mosharaf Chowdhury, informaticien à l’université du Michigan.

Pour entraîner les chatbots IA, les grands modèles de langage (LLM) sont nourris d’immenses ensembles de données afin que l’IA puisse apprendre, reconnaître des schémas et effectuer des prédictions. Généralement, il existe une croyance du « plus c’est grand, mieux c’est » lors de l’entraînement des IA, note de Vries-Gao : on considère que les modèles plus volumineux, nourris de plus de données, produisent de meilleures prédictions.

« Lorsque vous essayez d’effectuer un entraînement, les modèles sont aujourd’hui si volumineux qu’ils ne tiennent pas sur une seule carte graphique (GPU) ni même sur un seul serveur », souligne Chowdhury à Live Science.

Pour donner une idée de l’ampleur du phénomène, une étude réalisée par De Vries-Gao en 2023 a calculé qu’un seul serveur Nvidia DGX A100 consomme jusqu’à 6,5 kilowatts d’électricité. La formation d’un LLM nécessite généralement plusieurs serveurs, chacun équipé en moyenne de huit GPU, qui fonctionnent ensuite pendant des semaines, voire des mois. Au total, cela consomme des montagnes d’énergie : on estime que l’entraînement de GPT-4 par OpenAI a nécessité 50 gigawattheures, soit l’équivalent de la consommation de San Francisco sur trois jours.

L’inférence aussi réclame beaucoup d’énergie. Il s’agit du moment où le chatbot d’IA émet une conclusion à partir de ce qu’il a appris et génère une réponse à une requête. Bien que l’exécution d’un LLM entraîné demande moins de ressources de calcul, l’inférence reste énergivore à cause du nombre colossal de requêtes adressées aux chatbots.

En juillet 2025, OpenAI affirmait que les utilisateurs de ChatGPT envoient plus de 2,5 milliards de requêtes chaque jour, ce qui implique l’utilisation de nombreux serveurs pour fournir des réponses quasi instantanées. Sans parler des autres chatbots largement utilisés, notamment Gemini de Google, dont les représentants affirment qu’il deviendra bientôt l’option par défaut lorsque les utilisateurs utiliseront Google Search.

« Même au niveau de l’inférence, il est difficile de vraiment économiser de l’énergie », constate Chowdhury. « Ce n’est pas tant lié à la masse de données. Le modèle est déjà immense, mais c’est surtout le nombre gigantesque d’utilisateurs qui pèse. »

Des chercheurs comme Chowdhury et de Vries-Gao travaillent aujourd’hui à mieux mesurer ces besoins énergétiques afin de chercher des pistes pour les réduire. Par exemple, Chowdhury tient un tableau de bord ML Energy Leaderboard qui suit la consommation en énergie lors de l’inférence de plusieurs modèles open source.

Cependant, la consommation réelle des principales plateformes d’IA générative reste en grande partie inconnue : les géants comme Google, Microsoft et Meta gardent ces chiffres confidentiels ou livrent des statistiques trop vagues pour évaluer leur véritable impact environnemental, indique de Vries-Gao. Cela complique l’évaluation de la consommation effective de l’IA, de ses besoins futurs et de la capacité du monde à y faire face.

Néanmoins, les utilisateurs de ces chatbots peuvent exiger plus de transparence. Cela permettrait à la fois de faire des choix plus responsables d’un point de vue énergétique et de pousser à des politiques exigeant de véritables comptes aux entreprises.

« Un problème fondamental avec les applications numériques, c’est que leur impact n’est jamais transparent », conclut de Vries-Gao. « Aux responsables politiques de pousser à la transparence, afin que les utilisateurs puissent enfin agir. »

© Live Science from Future Media

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus