DOGE crée un outil d’IA défaillant pour gérer les contrats des Anciens Combattants
DOGE a développé un outil d’IA erroné pour examiner les contrats des Anciens Combattants
DOGE a conçu un outil d’intelligence artificielle rapide mais défectueux pour analyser les contrats du Département des Anciens Combattants (VA) et identifier ceux à annuler sous l’administration Trump. Ce système a généré des erreurs majeures, remettant en cause la fiabilité et l’éthique de l’utilisation de l’IA dans la gestion publique des contrats.
Contexte et objectifs du développement de l’outil DOGE
Fin 2023, face à l’ordre exécutif de l’administration Trump ordonnant la révision de 90 000 contrats en 30 jours, la pression pour une évaluation rapide a mené les responsables à faire appel à Sahil Lavingia. Cet ingénieur logiciel, sans expérience dans la santé ou les marchés publics, a été recruté par la structure Department of Government Efficiency (DOGE), alors dirigée par Elon Musk.
Lavingia a développé en urgence un logiciel baptisé “munchable” pour identifier les contrats non essentiels, cibles pour annulation. Il termine la première version dès son deuxième jour, aidé par l’IA pour coder.
Défaillances techniques et erreurs de l’outil
L’outil utilise des modèles d’IA obsolètes et économiques, incapables de comprendre les subtilités des contrats gouvernementaux. Il a généré des erreurs manifestes, notamment en exagérant la valeur de certains contrats :
- Plus de 1000 contrats ont été évalués à 34 millions de dollars chacun, alors que certains n’atteignent que 35 000 dollars.
- L’outil sélectionne plus de 2 000 contrats à “manger” (annuler), parmi lesquels figurent des contrats vitaux pour la recherche contre le cancer ou le soutien aux soins infirmiers.
Des experts en IA et marchés publics interrogés ont unanimement critiqué la qualité du code et la méthodologie employée. Ils qualifient l’usage d’IA basique pour cette tâche comme “profondément problématique”.
Cary Coglianese, spécialiste en droit et IA, souligne l’insuffisance des modèles généraux LLM pour des analyses aussi complexes.
Waldo Jaquith, ancien responsable de contrats IT, dit : “L’IA donne des réponses convaincantes mais fausses. Des humains compétents doivent décider.”
Les erreurs techniques proviennent notamment de :
- Modèles OpenAI anciens fournis par la VA, inadaptés à la tâche.
- Lecture uniquement des 2 500 premiers mots des contrats, contenant de rares détails précis.
- Extraction approximative des valeurs des contrats par IA, générant des valeurs fausses ou multiples.
Réactions à l’intérieur du Département des Anciens Combattants
Le porte-parole de la VA, Pete Kasperowicz, défend le processus, déclarant que chaque contrat est examiné par des experts avant toute décision de résiliation. Il assure que les annulations concernent des contrats redondants ou non essentiels, et qu’aucune décision ne se prend sans analyse cautious.
Toutefois, des employés de la VA rapportent un processus peu transparent, avec peu d’informations sur les décideurs finaux. Parfois, leurs délais pour justifier le maintien de contrats étaient très courts, parfois quelques heures. Des échanges internes évoquent même des réponses limitées à 255 caractères, comme sur le réseau social X.
Perspectives et actions de Sahil Lavingia
Lavingia reconnaît les erreurs et déconseille d’utiliser son code sans modifications. Il compare cela à une erreur de guidage GPS potentiellement dangereuse. Fin mars, il publie son script sur GitHub pour que la communauté puisse l’améliorer. Toutefois, son ouverture aurait conduit à son licenciement par DOGE après son interview avec Fast Company.
Avenir de l’utilisation de l’IA dans la gestion des contrats VA
Le VA ne confirme pas la poursuite d’usage de “munchable”. Des documents internes laissent entendre que l’IA pourrait remplacer certains employés au sein du département des prestations.
Des sous-traitants contactent Lavingia pour comprendre les impacts du système et éviter la suppression de leurs contrats.
Résumé des points essentiels
- DOGE a créé une IA pour réviser rapidement les contrats VA, sous pression politique temporelle forte.
- L’outil présente d’importantes erreurs dues à ses modèles obsolètes et à une analyse superficielle.
- Des contrats essentiels ont été erronément ciblés pour annulation.
- Le processus au sein de la VA manque de transparence et impose des délais très courts aux employés.
- Experts et anciens responsables déconseillent l’utilisation de cette IA pour les décisions budgétaires sensibles.
- Lavingia a publié le code pour amélioration, mais a été licencié ensuite.
- Le futur de l’IA dans la VA reste incertain, avec des propositions pour automatiser davantage les processus.
DOGE Developed an Error-Prone AI Tool to « Munch » Veterans Affairs Contracts: What Went Wrong?
La réponse courte ? Une intelligence artificielle certes innovante mais bourrée d’erreurs a servi à identifier à la va-vite quels contrats du département des Anciens Combattants américains (VA) pouvaient être coupés. L’outil “Munchable”, conçu sous pression, a mal interprété des données importantes, créant plus de confusion que de clarté.
Entrons dans le vif du sujet avec un récit mêlant technologie, urgence politique et conséquences concrètes pour la santé publique américaine.
Naissance d’un outil AI à la va-vite : quand la technologie rencontre la précipitation
Sous la pression du gouvernement Trump pour réduire les dépenses, DOGE (Department of Government Efficiency) embauche un ingénieur logiciel sans expérience officielle en santé ni en administration publique. Sahil Lavingia, informaticien aguerri mais non spécialiste de l’IA, se voit confier la mission de créer un outil en deux jours. Sa tâche ? Scanner 90 000 contrats pour trier ceux jugés « non essentiels » et donc « munchables » — littéralement « à croquer ».
Lavingia explique que la contrainte de temps imposée par un décret présidentiel limitait à 30 jours l’examen complet des contrats. Pas de temps pour les humains, il faut coder.
« C’est impossible de faire ça à la main, même avec un code simple », glisse Lavingia. « Donc, on a mis une couche d’IA, qui nous a un peu aidés, mais avec ses limites. »
Un code perfectible, ou comment un AI est devenu un aspirateur à erreurs
Malheureusement, le logiciel développé souffre de défauts techniques majeurs. Il repose sur des modèles d’intelligence artificielle dépassés et bon marché. Résultat ? Il « hallucine » des données contractuelles clés. Des contrats valant 35 000 $ sont estimés à 34 millions $ !
Ces erreurs ne sont pas anodines : plus de 2 000 contrats ont été ciblés comme « munchable ». Certaines annulations concernent des équipements critiques, comme des appareils de séquençage génétique pour des traitements contre le cancer ou des analyses sanguines pour la recherche VA. Des services médicaux vitaux ont failli tomber dans l’escarcelle de cette machine un peu trop enthousiaste.
Des experts alertent sur les dangers d’un outil mal calibré
ProPublica a partagé le code et les résultats avec plusieurs spécialistes en intelligence artificielle et marchés publics. Tous ont tiré la sonnette d’alarme.
- Cary Coglianese, professeur en droit et sciences politiques, qualifie l’usage d’outils « grand public » comme les grands modèles de langage (LLM) pour ce genre de tâche complexe de « peu fiable ».
- Waldo Jaquith, ancien responsable des contrats IT au Trésor américain, dénonce l’idée d’utiliser l’IA pour couper dans le budget : « L’IA propose facilement des réponses convaincantes mais fausses. Il faut des humains pour faire ce travail. »
Comment ce chatbot devenu gestionnaire a-t-il pu se tromper à ce point ? Plusieurs facteurs aggravants :
- Le code s’appuie sur des versions d’OpenAI anciennes, incapables de gérer des documents longs et complexes.
- L’outil se focalise uniquement sur les premières pages (environ 2 500 mots) de chaque contrat, une zone dense en résumé mais pauvre en détails essentiels.
- Des erreurs dans l’extraction des chiffres financiers, avec des confusions entre plusieurs valeurs au sein d’un même document.
- Des données plus fiables étaient pourtant accessibles via des bases publiques, mais l’IA n’a pas été programmée pour les consulter.
Dans les coulisses du VA : entre opaque décisions et pression du temps
Le porte-parole du VA, Pete Kasperowicz, défend cette initiative en la qualifiant de « précédent de bon sens ». Il affirme que les décisions finales concernant les contrats sont le fruit d’examens rigoureux impliquant des experts et des hauts fonctionnaires.
Mais une voix discordante s’élève de l’intérieur. Certains employés dénoncent le caractère obscur du processus. Ils ignorent souvent qui tranche finalement. Une fois que l’outil a créé la « shortlist », c’est à d’autres personnes, avec plus d’expérience, de décider.
Pourtant, ces évaluations doivent être rapides : certains doivent justifier en quelques heures seulement la nécessité d’un contrat, avec parfois à peine 255 caractères pour se faire. On croirait presque à des tweets condamnant ou sauvant un projet.
Un employé anonyme : « On avait moins de temps que pour un post sur X, la plateforme de Musk, pour expliquer pourquoi un contrat mérite de rester. »
L’homme derrière le code : entre fierté et humilité
Sahil Lavingia admet volontiers que son code est loin d’être parfait. Avec la franchise d’un programmeur conscient de ses bugs, il compare sa création à cet épisode culte de la série « The Office », où Steve Carell suit Google Maps droit dans un lac.
Il prend soin de préciser que personne ne devrait se fier aveuglément à son outil. Les erreurs font partie du jeu, surtout avec un développement aussi précipité.
En signe d’ouverture, Lavingia met son script disponible sur GitHub. Une initiative rare dans la sphère gouvernementale, qui laisse le public et les experts fouiller dans les entrailles d’une machine controversée.
Cependant, cette transparence pourrait lui avoir coûté sa place. Après une interview révélatrice donnée à Fast Company, il est remercié par DOGE. Le VA ne veut pas commenter.
Et demain ? L’IA pour remplacer les employés du VA, une bonne idée ?
Le futur du « munching » automatisé reste flou. Les responsables de VA restent muets sur la poursuite ou non de l’utilisation de cet outil.
Mais des documents internes montrent que DOGE envisage d’utiliser davantage d’intelligence artificielle pour réorganiser le service de traitement des demandes de prestations. Autrement dit, remplacer certains emplois humains par des algorithmes.
Cela inquiète les entreprises contractantes. Après la diffusion du code, Lavingia a reçu des messages privés de prestataires cherchant à comprendre comment éviter la coupure de leurs contrats ou décoder les raisons d’une exclusion.
Ce que ce cas nous apprend réellement
La saga DOGE et son IA pour « muncher » les contrats du VA soulèvent de nombreuses questions :
- Le déploiement rapide d’outils d’IA dans l’administration publique demande rigueur, expertise et temps.
- La technologie ne peut pas remplacer l’humain dans des décisions aussi sensibles, notamment en matière de santé publique.
- La transparence et la relecture humaine multiple sont indispensables pour éviter des coupes budgétaires aux conséquences graves.
Enfin, cela nous rappelle que la tentation de la simplification par la machine cache souvent des pièges, entre évaluations erronées et enjeux humains.
En conclusion : l’IA, alliée ou ennemie du service public ?
DOGE a poussé la lumière sur une problématique réelle : comment gérer efficacement des milliers de contrats gigantesques au service des vétérans ? La réponse initiale a été maladroite, avec un « robot mangeur » plein de bonnes intentions mais de bugs.
Le « munchable » a permis d’ébaucher un tri automatisé mais pas encore mature. L’expérience invite surtout à s’interroger : peut-on confier des décisions humaines délicates à un algorithme bâclé ? Probablement pas. Mais avec une meilleure technologie, plus de temps, et surtout un cadre humain fort, l’IA pourrait à l’avenir devenir un assistant précieux.
Alors, chers lecteurs, seriez-vous prêts à faire confiance à un algorithme pour gérer un budget aussi critique ? Ou préférez-vous que l’humain conserve la main sur chaque euro dépensé ?
Q1 : Quel était le rôle principal de l’outil IA développé par DOGE pour le ministère des Anciens Combattants ?
L’outil IA visait à identifier rapidement les contrats privés non essentiels à annuler. Il classait ces contrats comme « munchable » (ciblés pour suppression) afin de respecter le délai strict donné par l’administration Trump. Le programmeur l’a conçu en quelques jours.
Q2 : Quelles erreurs majeures ont été relevées dans cet outil IA ?
L’outil utilisait des modèles d’IA obsolètes qui gonflaient la valeur des contrats. Par exemple, certains contrats de 35 000 $ ont été signalés comme valant 34 millions. De plus, il extrayait mal les données essentielles en se basant sur des résumés trop courts.
Q3 : Comment les experts ont-ils évalué l’usage de l’IA pour cette tâche ?
Plusieurs spécialistes ont jugé l’usage de l’IA inadapté et dangereux dans ce contexte. Ils ont critiqué la fiabilité faible des modèles utilisés et le risque d’erreurs graves, soulignant que des humains doivent impérativement vérifier ces décisions. L’IA pouvait fournir des réponses convaincantes mais souvent fausses.
Q4 : Quel impact l’outil IA a-t-il eu sur les contrats du VA ?
Plus de 2 000 contrats ont été ciblés pour suppression, dont certains importants pour la recherche médicale et les soins. Au moins deux douzaines ont été annulés, ce qui a soulevé des inquiétudes sur la pertinence de ces coupures abruptes pour les services aux vétérans.
Q5 : Quelle a été la réaction officielle du ministère des Anciens Combattants face à l’outil DOGE ?
Le porte-parole du VA a défendu la démarche, la qualifiant de première du genre. Il a insisté sur la supervision humaine multiple avant toute annulation et assuré que les contrats essentiels aux vétérans ne seraient pas interrompus sans plan de rechange.
Q6 : Comment s’est déroulé le processus de décision après la sélection des contrats par l’IA ?
Après que l’outil ait produit une liste, d’autres personnes du VA examinaient les décisions. Cependant, des employés ont signalé un manque de transparence sur les dernières décisions, avec parfois peu de temps pour justifier le maintien d’un service.