L’énergie requise pour faire fonctionner les puces à haute capacité de traitement et les systèmes de refroidissement assimile l’intelligence artificielle au pétrole : lucrative pour les humains, mais avec un coût environnemental, selon le journaliste indien Sanjeev Kumar.
Alors que l’humanité met volontairement à son service l’intelligence artificielle en dépit des doutes sur les plans académique et sécuritaire, les besoins énergétiques de l’IA et son empreinte carbone préoccupent de plus en plus. L’IA est souvent comparée aux combustibles fossiles. Le pétrole, une fois extrait et raffiné, apporte d’importants profits. Tout comme le pétrole, l’IA a un impact environnemental très sérieux qui en surprend beaucoup.
Selon un article paru dans le magazine MIT Technology Review, l’entraînement de grands modèles utilisant l’intelligence artificielle a un impact environnemental considérable, puisque «l’ensemble du processus peut émettre plus de 626 000 livres d’équivalent de dioxyde de carbone, soit près de cinq fois les émissions d’une voiture américaine moyenne pendant toute sa durée de vie (et cela inclut la fabrication de la voiture elle-même)».
Une étude réalisée par Alex de Vries, de l’École de business et d’économie auprès de l’Université libre d’Amsterdam, soulève également des inquiétudes quant à la consommation d’électricité liée au développement accéléré de l’informatique et à l’impact potentiel de l’IA et des centres de données sur l’environnement. «Ces dernières années, la consommation d’électricité par les centres de données s’élève à un pourcentage relativement stable de 1% de la consommation mondiale d’électricité, sans tenir compte du minage de crypto-monnaies», explique de Vries.
Comment fonctionnent les centres de données pour l’IA
Selon une étude du MIT, il y a dix ans, «la plupart des modèles de traitement du langage naturel (NLP) pouvaient être formés et développés sur un ordinateur portable ou un serveur de base». Mais aujourd’hui, l’IA nécessite plusieurs instances de matériel spécialisé, comme des unités de traitement graphique (GPU) ou des unités de traitement tensoriel (TPU).
«L’objectif d’un grand modèle linguistique est de deviner la suite d’un texte», indique un article de la Columbia Climate School. «Pour y parvenir, il doit d’abord y être entraîné. L’entraînement consiste à exposer le modèle à d’énormes quantités de données (peut-être des centaines de milliards de mots) provenant d’internet, de livres, d’articles, de réseaux sociaux et d’ensembles de données spécialisés.»
Ce processus d’entraînement prend des semaines, voire des mois, au cours desquels un modèle basé sur l’IA apprend à exécuter avec précision certaines tâches en évaluant différents ensembles de données.
Au début, le modèle fait des suppositions aléatoires pour trouver la bonne solution. Mais grâce à un entraînement continu, il identifie de plus en plus de modèles et de relations dans les données fournies pour produire des résultats précis et pertinents.
Les progrès réalisés ces dernières années dans les techniques et le matériel destiné à former les réseaux neuronaux ont permis «des améliorations impressionnantes au niveau de la précision dans de nombreuses tâches fondamentales en la matière».
«Par conséquent, l’entraînement d’un modèle de pointe nécessite aujourd’hui des ressources informatiques considérables qui requièrent beaucoup d’énergie, ainsi que des coûts financiers et environnementaux associés», ajoute l’étude du MIT.
Besoins énergétiques et empreinte carbone des centres de données
L’expansion rapide et l’application à grande échelle de l’IA en 2022 et 2023 après le lancement du ChatGPT par OpenAI ont stimulé le développement de grands modèles de langage (LLM) par de grandes entreprises technologiques telles que Microsoft et Alphabet (Google).
Le succès de ChatGPT (qui a atteint le nombre sans précédent de 100 millions d’utilisateurs en deux mois) a poussé Microsoft et Google à lancer leurs propres chatbots sur l’IA, Bing Chat et Bard respectivement, explique de Vries dans son article.
Interviewé par RT, de Vries déclare : «Nous savons déjà que les centres de données représentent 1% de la consommation mondiale d’électricité. Grâce aux tendances numériques telles que le minage de crypto-monnaies et l’IA, ce chiffre pourra facilement s’élever à 2% et plus dans les années à venir.»
L’étude du MIT estime que l’informatique en nuage a une empreinte carbone plus importante que l’ensemble de l’industrie du transport aérien. D’ailleurs, un seul centre de données peut nécessiter la même quantité d’électricité qu’environ 50 000 foyers.
Ce sont notamment les puces à haute performance et les systèmes de refroidissement qui consomment le plus l’électricité, car, lorsque les processeurs analysent d’énormes quantités de données et produisent des réponses précises, ils chauffent.
L’étude d’Alex de Vries indique que le modèle BLOOM (BigScience Large Open-Science Open-Access Multilingual) de Hugging Face a consommé 433 MWh d’électricité pendant son entraînement.
«D’autres LLM, dont GPT-3, Gopher et Open Pre-trained Transformer (OPT), auraient utilisé respectivement 1 287, 1 066 et 324 MWh pour leur entraînement. Chacun de ces LLM a été formé sur des téraoctets de données et comporte 175 milliards de paramètres ou plus», ajoute l’étude.
Dans son article, de Vries cite le bureau d’études SemiAnalysis qui indique qu’OpenAI a eu besoin de 3 617 serveurs HGX A100 de Nvidia, avec au total 28 936 GPU pour assurer le fonctionnement de ChatGPT, ce qui implique la consommation de 564 MWh par jour.
«Google a mentionné que 60% de la consommation d’énergie liée à l’IA entre 2019 et 2021 provenait de l’inférence (où les données en direct sont passées par un modèle sur l’IA). Alphabet, la société mère de Google, a également exprimé son inquiétude au sujet des coûts de l’inférence comparés aux coûts de l’entraînement», ajoute le rapport.
Le débat sur la viabilité de l’IA et les actions futures
Selon de Vries, la demande en énergie accrue de la part des centres de données sera généralement satisfaite par des combustibles fossiles. «Nous ne disposons que d’une quantité limitée d’énergies renouvelables et nous avons déjà donné la priorité à ces dernières. Cela veut dire que toute demande supplémentaire sera satisfaite par des combustibles fossiles dont nous devons nous débarrasser», explique-t-il à RT. «Même si nous introduisons des énergies renouvelables dans l’IA, quelque chose d’autre, quelque part ailleurs, devra être alimenté par des combustibles fossiles, ce qui ne fera qu’aggraver le changement climatique.»
Avik Sarkar, professeur à l’Indian School of Business et ancien directeur du centre d’analyse de données de Niti Aayog en Inde, estime que le débat sur les besoins énergétiques et l’empreinte carbone de l’IA est anodin. Il a travaillé sur une analyse avec l’Agence internationale de l’énergie (AIE) en 2018 sur la croissance des centres de données en Inde et leur impact sur la consommation d’énergie dans le pays.
«L’empreinte de l’IA sur la consommation d’énergie est minuscule, d’autant plus que de nombreuses technologies engloutissent de grandes quantités d’énergie», a-t-il déclaré à RT. «Regardez n’importe quelle rue des grandes villes, la quantité d’éclairage des panneaux publicitaires est si énorme que les lumières sont visibles depuis l’espace, ce que l’on appelle les lumières nocturnes et qui est un grand indicateur de développement et de croissance économique. La consommation d’énergie est un effet naturel de l’urbanisation, du capitalisme et de la croissance économique. Nous devons apprendre à vivre avec cette réalité.»
En ce qui concerne la demande en énergie de centres de données et l’impact des émissions de carbone, de Vries affirme que le problème ne se limite pas à l’Inde et que le changement climatique est un problème mondial. «Si l’IA entraîne une augmentation de la demande d’énergie et des émissions de carbone, tous les pays vulnérables seront touchés», déclare-t-il.
Sarkar admet que la consommation massive d’énergie pour satisfaire les besoins de l’intelligence artificielle est due aux grands centres de données qui assurent l’infrastructure de stockage et de calcul. L’eau utilisée pour refroidir les centres de données a également un impact.
Le chercheur souligne que la plupart des centres de données dans le monde sont basés en dehors de l’Inde. D’après lui, le pays n’est donc pas confronté à des défis majeurs à l’heure actuelle. À l’exception des données personnelles, toutes les données indiennes peuvent être stockées dans des centres situés hors du pays.
«Les données critiques liées aux transactions financières, à l’identification biométrique ou aux soins de santé doivent être stockées en Inde, et les volumes sont immenses. En même temps, l’Inde s’étend sur des zones climatiques différentes et peut atténuer la forte consommation d’énergie en installant ces centres de données dans des zones plus fraîches et non sismiques du pays», suggère le chercheur.
Selon de Vries, la bonne nouvelle est qu’il existe des goulets d’étranglement dans la chaîne d’approvisionnement des serveurs utilisés pour l’IA, ce qui signifie que la croissance est quelque peu limitée à court terme. «Nous devrions profiter de cette occasion pour nous pencher sur une utilisation responsable de l’IA et veiller à ce que la transparence soit également assurée là où l’IA est utilisée afin que nous puissions évaluer correctement l’impact de cette technologie», déclare l’auteur de l’étude.