Tribune

«L’intelligence artificielle met notre économie ultra-carbonée sous stéroïdes»

En démultipliant les capacités de certaines des industries les plus polluantes, l’Intelligence artificielle est une menace potentielle pour le climat. Mais cela n’a rien d’inéluctable, estiment Lou Welgryn et Théo Alves da Costa, spécialistes de l'IA et coprésidents de l’association Data for good, dans cette tribune à Vert.
  • Par

L’Intel­li­gence arti­fi­cielle (IA) est sou­vent décrite comme un out­il révo­lu­tion­naire cen­sé trans­former l’humanité, et dont les béné­fices dépasseraient large­ment ses aspects négat­ifs. La sor­tie de Chat­G­PT il y a un an a mar­qué un nou­veau tour­nant dans sa démoc­ra­ti­sa­tion. Mais quels sont les impacts écologiques réels de l’IA ?

Il y a urgence à mieux les com­pren­dre, et met­tre en lumière un sujet essen­tiel, remar­quable­ment absent du débat pub­lic : la ques­tion de la final­ité. Sans pré­ten­dre à l’exhaustivité, voici quelques ordres de grandeur et des clés de lec­ture pour mieux com­pren­dre ces tech­nolo­gies qui envahissent pro­gres­sive­ment nos vies.

Les impacts ne se limitent pas à l’entrainement des algorithmes

Voilà un chiffre qui revient sou­vent : l’entraînement de Chat­G­PT 3 a émis 550 tonnes de CO2, soit au moins autant que 500 vols en aller sim­ple entre Paris et New York.

550 tonnes. Ce chiffre est martelé dans les médias, comme la preuve d’un impact mon­u­men­tal de l’Intelligence arti­fi­cielle : soyons clairs, ce chiffre est impor­tant, mais il est large­ment sous-estimé si on prend en compte l’intégralité de la chaîne de valeur. Le domaine de l’Intelligence arti­fi­cielle est apparu il y a 80 ans, et pour­tant il n’existe tou­jours pas de méthodolo­gie robuste pour cal­culer son impact sur l’intégralité de son cycle de vie, ni de don­nées fiables pour le mesur­er.

La qua­si-total­ité des études sur la ques­tion de l’empreinte envi­ron­nemen­tale de l’intelligence arti­fi­cielle se con­cen­trent unique­ment sur les émis­sions de car­bone dans la phase d’apprentissage, c’est-à-dire la con­som­ma­tion élec­trique des data cen­ters pour fab­ri­quer l’algorithme — ou l’entraînement. Elles sont prin­ci­pale­ment dépen­dantes de l’intensité car­bone de l’électricité util­isée par le data cen­ter, et de la durée totale du cal­cul.

D’autres étapes con­tribuent pour­tant à génér­er des impacts néfastes. La fab­ri­ca­tion du matériel néces­saire — les data cen­ters et les cartes graphiques de cal­culs (appelées aus­si GPUs) — n’est jamais cal­culée, ni prise en compte.

Mais surtout, il existe un seuil à par­tir duquel les impacts de l’utilisation d’un algo­rithme devi­en­nent pré­dom­i­nants, en par­ti­c­uli­er pour les IA récentes dites «généra­tives», celles qui, comme Chat­G­PT, génèrent notam­ment du texte ou des images : Sasha Luc­cioni, sci­en­tifique et experte des ques­tions envi­ron­nemen­tales de l’IA pour la start­up Hug­ging Face, chiffre autour de 200 à 600 mil­lions d’utilisations (selon de la taille du mod­èle), le point de bas­cule à par­tir duquel l’utilisation devient plus gour­mande que l’entraînement. Un chiffre atteint en une semaine seule­ment sur Chat­G­PT (180 mil­lions d’utilisateurs act­ifs au comp­teur).

«La prise en compte de la matéri­al­ité de ce monde virtuel devient cru­ciale»

Dans le livre blanc de l’association Data for Good sur l’IA généra­tive, nous avons ain­si éval­ué la con­som­ma­tion élec­trique et son équiv­a­lent en émis­sions car­bone pour la phase d’utilisation de Chat­G­PT 3.5 autour de 100 000 tonnes de CO2, soit 200 fois plus que l’entraînement de l’al­go­rithme lui-même. Une esti­ma­tion pour ChatGPT4 pour­rait don­ner un chiffre bien supérieur, notam­ment à cause de la nou­velle fonc­tion­nal­ité de généra­tion d’images, beau­coup plus éner­gi­vore.

À l’heure de l’adoption expo­nen­tielle de ces tech­nolo­gies, favorisée par l’empressement du monde de la tech à embar­quer ces méga-algo­rithmes obès­es dans un max­i­mum de pro­duits, la prise en compte de la matéri­al­ité de ce monde virtuel devient cru­ciale.

L’éléphant dans la salle serveur : les applications et la finalité de l’IA

Mais ces impacts (fab­ri­ca­tion du matériel, con­som­ma­tion d’énergie en phase d’entraînement et d’usage) ne sont encore que la par­tie émergée de l’iceberg. L’intelligence arti­fi­cielle, en tant qu’outil, est mise au ser­vice de notre économie ultra-car­bonée dans le but de la servir et de l’optimiser active­ment — en somme, de la met­tre sous stéroïdes. Une récente étude per­for­ma­tive du géant du con­seil McK­in­sey lui attribue une aug­men­ta­tion poten­tielle de 2,5 à 4% de PIB sup­plé­men­taire par année dans de nom­breuses indus­tries. Selon nos cal­culs, cela pour­rait génér­er l’émission d’au moins un mil­liard de tonnes de CO2 sup­plé­men­taires par an — l’équivalent de 2% des émis­sions annuelles mon­di­ales.

Par les gains de pro­duc­tiv­ité qu’elle génère, l’IA per­met d’augmenter la pro­duc­tion des biens exis­tants. Dans l’industrie fos­sile par exem­ple, Exxon­Mo­bil a annon­cé pou­voir pro­duire 50 000 bar­ils de pét­role de schiste sup­plé­men­taires par jour dans le bassin Per­mien (la plus grosse bombe car­bone au monde) grâce à l’amélioration de ses tech­niques d’extraction per­mis­es par l’intelligence arti­fi­cielle. Cela représente env­i­ron 20 000 tonnes de CO2 sup­plé­men­taire par jour. C’est l’équivalent d’un an d’émissions car­bone liées à la con­som­ma­tion élec­trique de Chat­G­PT — en seule­ment cinq jours de for­age. Et d’écouler cette pro­duc­tion par l’hyper-personnalisation et le ciblage par le biais par exem­ple d’algorithmes hyper-addic­tifs, comme celui de Tik­Tok, ou de man­nequins 100% made in IA qui pro­duisent du con­tenu tou­jours plus vite.

Mais elle crée aus­si pléthores de nou­veaux usages et pro­duits man­u­fac­turés, dont une large majorité est super­flue — il suf­fit d’aller faire un tour au CES 2024, le forum de la tech­nolo­gie de Las Vegas, pour s’en con­va­in­cre : entre des nou­velles lunettes Ray­ban con­nec­tées, les jumelles Swarovs­ki à 4 800 dol­lars pour iden­ti­fi­er les oiseaux, une nou­velle gamme de vête­ments «intel­li­gents» The Kooples, des toi­lettes avec qui échang­er sur la cuvette ou des pous­settes qui se poussent toutes seules.

«Son adop­tion n’est ni inévitable, ni automa­tique. Elle est éminem­ment poli­tique.»

Bien sûr, il existe des final­ités utiles dans la médecine, la mod­éli­sa­tion cli­ma­tique, l’efficacité ou l’optimisation des ressources … mais elles sont si peu nom­breuses au regard des autres appli­ca­tions. Et les effets rebonds ont toutes les chances d’effacer des gains énergé­tiques poten­tiels par une inten­si­fi­ca­tion des usages.

Dévelop­per sans lim­ite une tech­nolo­gie qui per­met de men­er à la marge des pro­jets «verts» tout en aug­men­tant mas­sive­ment le «brun» — aura un impact net large­ment négatif sur le monde.

Soyons techno-lucides : pensons les fins avant les moyens

Nous sommes au début d’un change­ment de par­a­digme. D’une tech­nolo­gie ampli­fi­ca­trice de con­tenus créés par des humains, nous pas­sons à l’ère d’une tech­nolo­gie capa­ble de génér­er du con­tenu, de nous recom­man­der (Spo­ti­fy, GPS, etc.), voire de nous com­man­der des com­porte­ments, à l’image de ces tra­vailleurs Ama­zon qui doivent suiv­re la cadence dic­tée par des IA dans les entre­pôts de la firme. Cette tech­nolo­gie n’est pas neu­tre : elle s’inscrit dans un cadre socio-tech­nique et doit être appréhendée à l’aune du monde cap­i­tal­iste dans lequel elle est pen­sée. De ce qu’elle con­tribue à tiss­er, ampli­fi­er, con­solid­er et ver­rouiller en son sein.

À rebours des grands dis­cours sur ses pré­ten­dus impacts dans la lutte con­tre le change­ment cli­ma­tique, la nou­velle vague de l’IA nous ori­ente vers une marchan­di­s­a­tion tou­jours accrue. Bien plus qu’un sim­ple algo­rithme, elle incar­ne une vision du monde. Un monde ultra-tech­nologique dans lequel l’optimisation et la pro­duc­tiv­ité sont poussées jusqu’au ver­tige.

Mais son adop­tion n’est ni inévitable, ni automa­tique. Elle est éminem­ment poli­tique.

Nous pou­vons et devons ques­tion­ner ses usages et leur inté­gra­tion dans notre quo­ti­di­en.

En tant que pro­fes­sion­nels du secteur, nous pou­vons désert­er les usages inutiles — et refuser d’être les arti­sans d’IA gad­gets qui spolient des ressources en con­flit d’usages.

En tant que citoyens, nous devons nous inter­roger sur notre pro­pre rap­port à ces tech­nolo­gies et nous mobilis­er pour décider col­lec­tive­ment des usages qui doivent être main­tenus et ceux qui doivent être aban­don­nés. Nous devons exiger ce choix.

Nous devons penser les fins avant les moyens.

Nous devons être tech­no-lucides.

Lou Wel­gryn et Théo Alves da Cos­ta, co-président·es de Data for Good et mem­bres du col­lec­tif Eclair­cies