Créé dès l’investiture de Donald Trump en janvier 2025, le Département de l’efficacité gouvernementale (Doge) est une expérimentation politique sans précédent. Il promet de moderniser l’État et d’optimiser les dépenses publiques grâce à des algorithmes. Au cœur de ce service se déploie une double stratégie : surveillance algorithmique des agents publics et utilisation de l’intelligence artificielle (IA).
Ce décryptage a été réalisé par Data for Good, une association qui veut mettre les données au service de l’intérêt général, pour Chaleurs actuelles : la rubrique de Vert consacrée à la désinformation climatique et à l’extrême droite. Abonnez-vous gratuitement à la newsletter Chaleurs actuelles pour tout savoir de ces sujets majeurs.
En quelques semaines, le Doge a pris le contrôle des systèmes informatiques de dizaines d’agences fédérales – départements de l’agriculture, de la défense, du Trésor… Cette vitesse d’exécution n’est pas accidentelle ; elle est typique des stratégies popularisées par Steve Bannon [conseiller de Donald Trump à la Maison-Blanche en 2017, NDLR], comme le souligne le journaliste Brian Barrett : «Elle vise à “inonder la zone”, afin que ni les médias, ni les tribunaux ne puissent suivre le rythme.»
Sous la direction d’Elon Musk (officiellement simple «conseiller spécial du président») cette entité hybride opère dans un vide juridique troublant. Elle est exemptée des exigences habituelles de transparence et affranchie du contrôle parlementaire. Sa méthode s’apparente moins à une réforme administrative qu’à une prise de contrôle hostile, avec des équipes d’ingénieur·es de moins de 25 ans qui infiltrent les agences fédérales pour s’emparer des infrastructures numériques critiques.

Cette entité incarne la convergence entre solutionnisme technologique de l’intelligence artificielle (IA) et autoritarisme néolibéral, où l’impératif d’efficience sert de paravent à une vision ultralibérale de l’État, géré comme une entreprise privée où la rentabilité l’emporte sur la mission de service public.
L’IA au service du démantèlement de l’État
Eryk Salvaggio, chercheur au metaLab de l’université Harvard (États-Unis) et activiste, qualifie le Doge de «coup d’État numérique qui risque de changer à jamais la nature du gouvernement américain. Il ne se déroule pas dans la rue, sans loi martiale, ni recours à la force, mais dans l’automatisation banale de la bureaucratie».
Consistent with President @realDonaldTrump’s instructions, all federal employees will shortly receive an email requesting to understand what they got done last week.
— Elon Musk (@elonmusk) February 22, 2025
Failure to respond will be taken as a resignation.
«Tous les employés fédéraux recevront bientôt un e-mail demandant d’expliquer ce qu’ils ont accompli la semaine dernière. L’absence de réponse sera considérée comme une démission.»
Parmi les expérimentations du Doge en matière d’IA : le système d’analyse automatisée des réponses des 2,2 millions de fonctionnaires fédéraux à la question posée sur leur activité de «la semaine dernière», afin de déterminer algorithmiquement la pertinence de les maintenir en poste.
En parallèle, le département développe un logiciel d’automatisation des licenciements, adapté d’une technologie initialement conçue pour le ministère de la défense, visant à faciliter la réduction d’effectifs de 10% promise par Musk. Des algorithmes d’analyse de données devraient examiner les contrats fédéraux à la recherche de potentielles économies et redondances.
Quant à l’armée américaine, elle utilise désormais CamoGPT, un outil d’analyse de texte (comme ChatGPT) spécifiquement programmé pour identifier et supprimer les références à la diversité, l’équité et l’inclusion dans les documents de formation militaire.
À lire aussi
GSAi : un chatbot pour surveiller les employés
C’est l’un des projets emblématiques du DOGE : GSAi est un chatbot d’IA générative déployé dans l’Administration des services généraux (la GSA – une agence indépendante qui aide à la gestion et au fonctionnement des autres agences fédérales) auprès de milliers de fonctionnaires. Celui-ci a officiellement été présenté comme un outil destiné à «booster la productivité quotidienne» en automatisant des tâches répétitives – comme un ChatGPT interne à l’administration américaine. Mais cette interface conversationnelle n’est que la partie émergée d’un projet bien plus ambitieux.
Thomas Shedd, ancien ingénieur de Tesla devenu directeur des services de transformation technologique à la GSA, a révélé la véritable ambition du Doge : «Le gouvernement fédéral a besoin d’un référentiel de données centralisé», c’est-à-dire qu’il compte utiliser cet outil du quotidien pour collecter des données sur l’activité des agents publics américains.
La déconnexion entre promesses et réalité a éclaté au grand jour lors de la dernière démonstration de l’outil, au cours de laquelle les fonctionnaires angoissé·es par la perspective d’être touché·es elles et eux aussi par les licenciements massifs ont protesté : «Nous ne voulons pas une démo d’IA, nous voulons des réponses sur ce qui se passe avec les réductions d’effectifs.»
L’IA et la tentation fasciste
Il est bien connu que les algorithmes d’IA ne sont pas exempts de biais, et sont à la source de discriminations. La rhétorique d’efficacité du Doge dissimule un programme radical d’austérité et une idéologie conservatrice. L’argument central – éliminer la «fraude» et le «gaspillage» – est en réalité profondément subjectif. Sans surprise, les coupes budgétaires ciblent particulièrement les programmes sociaux, environnementaux, et les initiatives liées à la diversité.
Dan McQuillan, chercheur à l’université Goldsmiths de Londres et auteur du livre Resisting AI : An Anti-fascist approach to artificial intelligence (Bristol University Press, 2022, non traduit en français), établit un lien direct entre l’IA et les tendances autoritaires contemporaines : «L’IA est particulièrement forte pour séparer et discriminer les choses et les gens, ainsi que pour préserver le pouvoir existant (en renforçant les monopoles). C’est en cela qu’elle a une tendance fasciste».
Les systèmes déployés par le Doge illustrent parfaitement ces classifications qu’engendrent les algorithmes d’IA. Ces algorithmes opèrent des distinctions opaques qui échappent au débat démocratique, qu’il s’agisse de déterminer quels fonctionnaires sont «essentiels» ou non, quels programmes méritent d’être financés, ou quels citoyen·nes sont suspect·es.
Le risque de discrimination algorithmique n’est pas théorique. Aux Pays-Bas, le système SyRI, un algorithme de profilage des allocataires des aides sociales, ciblait systématiquement les habitant·es des quartiers pauvres à forte population immigrée, avant d’être jugé contraire aux droits humains. En Australie, le programme Robo-debt a généré par erreur algorithmique 400 000 fausses dettes envers des bénéficiaires modestes, provoquant stress financier et suicides. En France, c’est le système algorithmique de la CAF qui est pointé du doigt par plusieurs ONG pour avoir exclu et harcelé des personnes déjà en situation de précarité.
Un modèle qui s’exporte : la contagion autoritaire
Le modèle Doge inspire déjà des initiatives similaires en dehors des États-Unis, particulièrement dans les formations politiques d’extrême droite. En France, Jordan Bardella, président du Rassemblement national, s’est déclaré partisan d’un «Doge à la française» en cas d’arrivée au pouvoir du RN. Son objectif affiché : «arrêter de dépenser de l’argent dans tout et n’importe quoi» en créant une structure qui passerait «en revue ligne par ligne les dépenses de l’État».
Jordan Bardella va jusqu’à suggérer de confier ce ministère à «un chef d’entreprise», assumant l’idée de placer un gestionnaire privé à la tête de l’appareil d’État. C’est la même logique poussée par le fonds d’investissement Frst, proche du milliardaire d’extrême droite Pierre-Edouard Stérin, qui a lancé un sondage pour montrer que les Français·es «veulent un entrepreneur à la présidence de la République».
Au Canada également, un groupement de PDG du secteur technologique baptisé Build Canada a manifesté son souhait d’importer le modèle Doge. Cette initiative, présentée comme «apolitique», masque mal sa dimension idéologique. Comme l’analyse Hadrian Mertins-Kirkwood, chercheur au Canadian centre for policy alternatives : «Il est difficile de savoir si ces leaders de la tech disent “Nous voulons l’efficacité”, ou si c’est juste un cheval de Troie pour “Nous voulons faire exploser le gouvernement”.»
L’algorithme contre la démocratie
L’enjeu fondamental n’est pas technique, mais politique : qui contrôle l’algorithme et à quelles fins ? Comme le souligne Eryk Salvaggio dans son article intitulé Anatomie d’un coup d’État par l’IA : «La participation démocratique ne sera jamais un gaspillage. Aucun système informatisé ne devrait remplacer la voix des électeurs. Ne demandez pas si la machine est digne de confiance. Demandez-vous qui la contrôle.»
L’expérience américaine du Doge est un avertissement : déployée sans garde-fous démocratiques, l’IA peut devenir l’instrument d’une transformation autoritaire de l’État, au détriment des populations les plus vulnérables et des fondements mêmes de la délibération démocratique.
À lire aussi
-
Aux États-Unis, le département de l’efficacité gouvernementale d’Elon Musk débarque par surprise dans les locaux de l’agence du climat
Bas les Musk. Des employé·es du département américain de l’«efficacité gouvernementale» – structure décrétée par Donald Trump et placée sous la coupe d’Elon Musk -, sont entrés de force dans les locaux de l'Agence américaine d'observation océanique et atmosphérique, ce mercredi. Leur objectif : mettre la pression sur les scientifiques. -
-44%, -48%, -70%… les ventes de Tesla en chute libre dans plusieurs pays d’Europe
Edison le glas. Le constructeur automobile qui appartient au milliardaire trumpiste Elon Musk connaît un rude début d’année 2025 avec des ventes en berne dans plusieurs pays du continent.