Le vert du faux

Électricité, eau, minéraux, CO2 : on a tenté de mesurer l’empreinte écologique de ChatGPT

GPT la planète ? L’impact environnemental de l’incontournable outil d’intelligence artificielle est souvent insoupçonné et sous-estimé, et risque bien d’empirer dans les années à venir. Décryptage.
  • Par

On peut l’utiliser pour tout : trouver des idées de repas, préparer un programme de sport, vérifier une info, mener une séance de thérapie gratuite… En deux ans, ChatGPT est devenu un outil du quotidien pour plus de 200 millions d’utilisateur·ices régulier·es. Mais l’essor de ce modèle d’intelligence artificielle (IA) générative, développé par l’entreprise américaine Open AI, va de pair avec une empreinte environnementale croissante.

Cet article est issu de notre rubrique Le vert du faux. Idées reçues, questions d’actualité, ordres de grandeur, vérification de chiffres : chaque semaine, nous répondons à une question choisie par les lecteur·rices de Vert. Aujourd’hui, on se penche sur celle posée par Emma sur Instagram : «Quelle est l’empreinte écologique de ChatGPT ?». Si vous souhaitez voter pour la question de la semaine ou suggérer vos propres idées, vous pouvez vous abonner à la newsletter juste ici.

«ChatGPT n’est pas intrinsèquement écologique, mais son impact environnemental dépend de divers facteurs, comme l’énergie utilisée pour le faire fonctionner et la source de cette énergie. Bien que l’utilisation de ChatGPT ait une empreinte environnementale, des efforts sont en cours pour rendre ces systèmes plus durables», promet l’outil quand on l’interroge sur le sujet.

Malgré tous les efforts des expert·es du secteur, cette empreinte demeure très compliquée à estimer. La faute à des modèles qui évoluent très vite et rendent caduques les estimations, ainsi qu’à des effets volontairement sous-documentés par les entreprises du secteur. «Le problème principal, c’est qu’il n’y a aucune transparence des acteurs sur le sujet», relève Lou Welgryn, spécialiste de l’IA et coprésidente de l’association Data for good, qui cherche à mettre la tech au service du climat.

Une consommation électrique qui monte en flèche

L’impact énergétique est le plus évident et varie selon la source d’électricité utilisée pour alimenter les centres de données – cela n’aura pas les mêmes conséquences en France, où l’électricité est majoritairement décarbonée, qu’aux États-Unis, où elle est encore fortement alimentée par les fossiles.

L’intelligence artificielle représente environ 10 à 20% de l’électricité utilisée dans les centres de données, un pourcentage qui pourrait grandir tous les ans de quelque 70% dans les prochaines années. D’ici à 2027, l’IA générative pourrait utiliser autant d’électricité que l’Espagne en 2022, anticipe la banque américaine Morgan Stanley dans une étude.

L’IA nécessite des composants fabriqués à partir de minéraux, dont l’extraction entraîne la pollution de l’eau, la déforestation, voire violation de droits humains dans les pays concernés. © Getty images/Unsplash

Des modèles assoiffés

Les programmes d’intelligence artificielle sont très gourmands en eau pour produire les composants des serveurs qui font tourner les modèles, mais aussi pour les refroidir. ChatGPT ne fait pas exception : en 2023, une étude américaine a estimé que le modèle ChatGPT-3 consomme 500 millilitres d’eau pour quelques dizaines de requêtes – un chiffre sûrement déjà obsolète depuis le passage à ChatGPT-4, encore plus avide en eau. Et si l’on pense au nombre de requêtes réalisées au quotidien, les calculs deviennent vite vertigineux.

Des besoins en minéraux

Comme tous les usages du numérique, l’intelligence artificielle nécessite des composants fabriqués à partir de minéraux (cuivre, lithium, cobalt, etc.). L’extraction de ces minéraux entraîne son lot de conséquences (pollution de l’eau, déforestation, violation de droits humains, etc.) dans les pays concernés. Autant de matériaux qui ne pourront pas être utilisés dans des secteurs critiques de la transition, comme la fabrication de voitures électriques ou la production d’énergies renouvelables.

Une empreinte carbone de plus en plus conséquente

Pour se faire une idée de l’empreinte carbone de ChatGPT, nous nous sommes basés sur un comparateur créé par l’association Gen AI impact et l’application Ecologits. Une courte conversation (quelques interactions) avec le dernier modèle de ChatGPT émet environ 0,27 kilogramme d’équivalent CO2 (eqCO2), soit près d’une tonne de CO2 par an pour dix échanges par jour. C’est la moitié de ce que l’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.

À rebours de ce que l’on pourrait penser, on note une aggravation de l’impact avec l’évolution des modèles, toujours plus émetteurs en CO2 et demandeurs en eau et en électricité. Un échange rapide avec ChatGPT-4 émet cent fois plus de CO2 que le modèle précédent (ChatGPT-3,5). Or, lorsque ChatGPT-4 a été développé, les abonné·es payant·es du programme sont automatiquement passé·es à cette nouvelle version. «Quand Open AI décide d’un coup de basculer des millions d’utilisateurs sur la version ChatGPT-4, on a un effet rebond absolument effrayant», souligne Lou Welgryn.

Problème : un usage normalisé au quotidien

ChatGPT s’est si profondément ancré dans les habitudes des internautes qu’elles et ils sont nombreux·ses à le préférer à Google. Un choix qui n’est pas anodin, puisqu’une requête sur ChatGPT utilise entre six et dix fois plus d’énergie qu’une recherche traditionnelle sur internet, d’après de récentes projections.

«La question n’est pas tant le nombre d’utilisateurs que le nombre de requêtes réalisées au quotidien. Or, les gens se mettent à utiliser ChatGPT plutôt que Google pour la moindre demande. On prend l’habitude d’avoir recours à une solution compliquée pour une requête simple», décrypte Amélie Cordier, spécialiste de l’IA et fondatrice de Graine d’IA, qui accompagne les entreprises pour un usage responsable de l’intelligence artificielle. «Alors certes, c’est très marrant de lui demander de réciter la météo à la manière de Shakespeare, mais ça ne sert à rien», balaie l’experte.

«Si les utilisateurs avaient conscience de l’impact concret de leurs requêtes, ils se serviraient sûrement bien différemment de ChatGPT», veut-elle croire. Malheureusement, il est d’autant plus complexe pour les utilisateurs de s’en rendre compte que ces impacts sont complètement invisibles pour ces derniers. «Il est difficile de comprendre l’étendue des impacts environnementaux de l’IA compte tenu de la distance entre là où vous l’utilisez et là où cette interaction a été générée. La plupart du temps, les modèles tournent via des centres de données situés très loin de leurs utilisateurs», explique Sasha Luccioni, informaticienne et chercheuse experte de l’intelligence artificielle, dans un article très complet sur l’empreinte écologique de l’IA.

Conflits d’usage et renoncements

«On estime que la demande d’électricité liée à l’IA va être multipliée par deux d’ici à 2030. Le problème, c’est que cela croît plus vite que notre capacité à développer des énergies renouvelables», soulève Lou Welgryn de Data for good. Au risque de générer des conflits d’usage critiques, et de ralentir la nécessaire transition énergétique. L’électrification des usages aujourd’hui dépendants des énergies fossiles (comme le chauffage, les transports, etc.) est un levier incontournable pour permettre à la France d’atteindre la neutralité carbone en 2050 – c’est-à-dire l’équilibre entre le carbone émis et celui qui est absorbé. «Les Big Tech peuvent-elles décider d’utiliser de l’électricité propre pour verdir leur bilan carbone, tandis que le reste du monde doit utiliser des énergies carbonées ?», interroge Lou Welgryn.

La croissance du secteur de l’IA est tellement effrénée qu’elle met déjà à mal les ambitions climatiques de géants de la tech, comme Google ou Microsoft. Les émissions de CO2 de Microsoft ont bondi de 30% entre 2020 et 2024, et ce, alors que l’entreprise américaine s’est engagée à atteindre la neutralité carbone dès 2030. Chez Google, ce saut dans les émissions s’est élevé à 48% entre 2019 et 2023. Dans les deux cas, l’essor de l’IA et sa place grandissante dans les centres de données sont en cause.

L’IA, un outil «qui dope notre monde carboné»

En matière d’IA, il y a le modèle mais aussi ce qu’il permet de produire. Par exemple, il peut aider des entreprises fossiles à accélérer la production de secteurs polluants (le textile, la tech, etc.). Or, cet élément est quasiment impossible à prendre en compte lorsque l’on calcule l’impact de ces outils. «L’intelligence artificielle dope notre monde carboné, nous rend plus productifs. Et il faut dire les choses clairement : devenir plus efficace dans un monde carboné, ça crée juste plus de carbone», résume Lou Welgryn.

Bien sûr, l’intelligence artificielle peut aussi être un outil très utile pour l’environnement : elle peut améliorer la modélisation climatique, optimiser l’usage des ressources, détecter des fuites de méthane et globalement réduire les émissions de gaz à effet de serre de certaines activités. Elle peut aussi favoriser la connaissance citoyenne sur ces sujets via un outil comme «Climate Q&A», qui permet d’interroger les rapports scientifiques sur le climat (notre article).

Un DPE de l’intelligence artificielle ?

Mais la question se pose moins avec ChatGPT, qui est un produit d’appel majoritairement destiné aux particulier·es. D’autant plus que les modèles généralistes «fourre-tout» comme ChatGPT sont peu efficients d’un point de vue énergétique : ils ont été entraînés avec un nombre incalculable de données – un processus long et polluant. «Si on veut utiliser l’IA générative pour explorer des articles scientifiques de médecine, on n’a a priori pas besoin d’un modèle qui dispose par ailleurs de connaissances approfondies sur la pêche à la mouche», illustre la spécialiste.

Elle suggère d’instaurer une sorte de «DPE» [diagnostic de performance énergétique, utilisé pour classer les bâtiments et logements selon leur impact écologique, NDLR] des différents modèles d’IA : «Cela serait une vraie révolution qui forcerait les entreprises du secteur à s’améliorer et qui nous aiderait en tant qu’utilisateur à faire des choix plus pertinents». Et ainsi peut-être utiliser l’intelligence artificielle générative pour des usages plus vertueux que simplement connaître la météo du coin.