Dogecoin abandonne un outil IA défaillant qui comprometait la révision des contrats des anciens combattants
DOGE a Développé un Outil IA Défaillant pour Réviser les Contrats des Anciens Combattants
Le Département de l’Efficacité Gouvernementale (DOGE) a utilisé une intelligence artificielle défaillante pour évaluer les contrats du Department of Veterans Affairs (VA), causant l’annulation de centaines de contrats représentant des millions de dollars.
Une Mise en Œuvre Précipitée et Incomplète
Pour répondre à un décret présidentiel exigeant une révision rapide des contrats gouvernementaux, un ingénieur de DOGE, Sahil Lavingia, a programmé une IA censée identifier les contrats non essentiels à la mission de soins aux patients.
- La directive initiale devait être appliquée en 30 jours.
- L’IA devait « manger » (annuler) tout ce qui ne soutenait pas directement les soins aux patients.
- Cette décision reposait uniquement sur un code sans expertise approfondie.
Défaillances Majeures du Modèle IA
L’IA analysait uniquement les 10 000 premiers caractères de chaque contrat, soit environ 2 500 mots, ce qui limitait grandement la précision de la revue.
- La définition de termes clés (par exemple, « programmes DEI ») faisait défaut.
- L’instruction vague sur « tarifs raisonnables » conduisait à des évaluations arbitraires.
- Le modèle, créé sur une IA générale ancienne, créait des erreurs, notamment en inventant des montants de contrats (hallucinations).
- Cette approche ignorait la complexité des tâches médicales et administratives au VA.
Conséquences pour les Contrats VA
Initialement, 875 contrats ont été annoncés comme annulés, suscitant une forte inquiétude parmi les défenseurs des anciens combattants.
- Certains contrats portaient sur des inspections de sécurité et la communication directe avec les vétérans.
- Des erreurs de communication entre DOGE, le VA et les législateurs ont été signalées.
- Finalement, le VA a réduit le nombre d’annulations à environ 585 contrats, économisant près de 900 millions de dollars.
Réactions et Épilogue
Lavingia a reconnu les limites du modèle et indiqué que chaque contrat identifié comme « mangeable » passait par un contrôle humain avant toute décision finale.
Après environ 55 jours chez DOGE, il a été licencié suite à la divulgation de son travail aux médias. Il a cependant publié son code sur GitHub et décrit son expérience sur son blog personnel.
Points Clés à Retenir
- DOGE a utilisé un outil IA imparfait et mal défini pour réviser les contrats VA.
- Le modèle s’est basé sur des analyses partielles et des critères imprécis.
- Des contrats critiques pour la sécurité et le soutien des vétérans ont failli être annulés.
- Le VA a finalement révisé à la baisse les annulations, réaffectant près de 900 millions de dollars.
- Le concepteur de l’outil a été licencié, reconnaissant les nombreux défauts du système.
DOGE Developed Error-Prone AI Tool to “Munch” Veterans Affairs Contracts: What Went Wrong?
Le Département de l’Efficacité Gouvernementale (DOGE) a créé un outil d’intelligence artificielle destiné à passer au crible les contrats du Département des Anciens Combattants (VA). Le but : éliminer les contrats jugés inutiles, mais la machine a fait montre d’une extrême maladresse, entraînant l’annulation de centaines de contrats essentiels.
Imaginez un ingénieur pressé par un délai d’un mois pour mettre en œuvre un ordre présidentiel. Sahil Lavingia, employé chez DOGE, développe alors un algorithme capable de “manger” (ou “munch” en anglais) tout ce qui ne contribue pas directement aux soins des patients. Le hic ? Ni lui, ni sa création, n’avaient la moindre idée précise de ce qu’implique réellement cette mission.
Une IA bâclée par le manque de temps et d’expertise
Ce qui aurait dû être un outil ultra-précis s’est révélé un fiasco à cause d’un design imprécis et de paramètres mal définis.
Premier problème : le modèle ne pouvait analyser que les 10 000 premiers caractères des contrats, soit environ 2 500 mots. Cela signifie que pour des documents denses, une large partie restait non examinée. Comment décider du sort d’un contrat sans en connaitre tout le contenu ? C’est un peu comme lire seulement le résumé d’un livre pour écrire sa critique.
Ensuite, les termes à la base des décisions automatisées étaient vagues, voire absents. Par exemple, le code demandait de supprimer les programmes liés à la Diversité, l’Équité et l’Inclusion (DEI), mais sans définir ce que ces termes signifient réellement. Résultat : une IA livrée à elle-même, qui doit deviner ce que DEI implique, avec les biais et erreurs que cela peut entraîner.
L’ingénieur demandait aussi à la machine de juger si les “prix paraissaient raisonnables” pour des contrats de maintenance, sans fixer de critères précis. Vous imaginez demander à un robot de deviner si une facture est correcte sans lui donner une base ? La marge d’erreur devient énorme.
Une IA inadaptée à une tâche aussi complexe
L’outil a en plus été conçu sur un modèle d’IA généraliste et ancien, pas taillé pour la complexité des contrats gouvernementaux. Ce modèle “hallucinait” parfois, attribuant à tort des montants de contrats allant de milliers à plusieurs millions de dollars, créant un véritable chaos.
Un professeur expert dans ce domaine, Cary Coglianese, souligne que pour évaluer si un contrat peut être réalisé par un employé du VA, il faut une compréhension fine des soins médicaux, de la gestion institutionnelle et des ressources humaines. Ce savoir, l’IA n’en dispose pas.
Conséquences réelles : des contrats critiques menacés
Face à ces analyses erronées, le VA a d’abord annoncé en février la suppression de 875 contrats. Mais plusieurs associations de défense des anciens combattants ont tiré la sonnette d’alarme : parmi ces contrats figuraient ceux concernant les inspections de sécurité dans les hôpitaux VA, les communications directes avec les vétérans ainsi que le recrutement des médecins.
Un initié parle même d’un “désaccord de communication” entre DOGE, les dirigeants du VA et les législateurs, ce qui n’arrange pas la situation.
Finalement, en mars, le VA a réduit la liste des contrats annulés à environ 585 et annoncé le réinvestissement de près de 900 millions de dollars dans l’agence. Cela montre bien le caractère chaotique de la première décision fondée sur les recommandations d’une IA immature.
L’ingénieur à l’origine, ses regrets et la transparence
Durant l’enquête, Sahil Lavingia a admis que son modèle avait des défauts. Cela rassure, sauf qu’il répète que chaque contrat censé être “mangé” par l’IA avait aussi été manuellement vérifié par des humains.
Il a été licencié environ 55 jours après le début de son travail chez DOGE, en partie à cause de sa communication avec des journalistes. Dans un élan d’ouverture, il a publié son code sur GitHub et a partagé son expérience sur son blog.
Que retenir de cette mésaventure ?
- Une IA mal paramétrée et trop vite développée peut causer des dégâts majeurs, surtout dans un secteur sensible comme la santé des vétérans.
- Les technologies automatisées demandent une définition précise des termes et des objectifs. Sans elle, le robot se perd.
- Les décisions critiques, même appuyées par l’IA, doivent toujours être revérifiées par des experts humains.
- Un délai trop court impose des compromis. Mieux vaut prendre quelques semaines de plus afin d’éviter une crise.
- La transparence de l’ingénieur et la relecture humaine ont permis de limiter le pire, mais l’automatisation ne doit jamais être un substitut complet au jugement humain.
Finalement, cette affaire révèle la réalité souvent ignorée : non, l’IA ne remplacera pas demain les humains dans tous les métiers. Il faut savoir quand automatiser et surtout comment. DOGE avait un pari audacieux, son IA a “mangé” plus que prévu… dans quelques cas, au détriment des vétérans eux-mêmes. L’intelligence artificielle a commencé par mâcher le travail, elle doit aussi apprendre à le mâcher avec précaution.
Vous imaginiez-vous qu’une IA bavarde comme un enfant sans fin puisse décider du futur des contrats gouvernementaux ? Voilà une leçon pour tous ceux qui croient que la magie de l’algorithme est infaillible. La prudence et la vigilance restent nos meilleures alliées.
Quelles erreurs spécifiques l’IA développée par DOGE a-t-elle commises dans l’analyse des contrats du Veterans Affairs ?
L’IA a analysé uniquement les 10 000 premiers caractères des contrats, sans définition claire des termes clés comme « core medical ». Elle a aussi évalué mal la pertinence des contrats et surestimé certains montants. Cela a entraîné l’annulation de contrats essentiels.
Pourquoi l’outil d’IA de DOGE était-il inadapté pour cette tâche ?
L’outil reposait sur un modèle général ancien, incapable de comprendre la complexité du secteur médical ou la gestion institutionnelle. Il manquait une définition précise des critères et n’avait pas la capacité d’apprécier les ressources humaines disponibles.
Quelles conséquences l’annulation des contrats a-t-elle eu pour le Veterans Affairs ?
Au départ, 875 contrats ont été annulés, mettant en danger la sécurité des centres médicaux et la communication avec les vétérans. Finalement, ce nombre a été réduit à environ 585 contrats non essentiels pour réorienter 900 millions de dollars vers l’agence.
Comment l’ingénieur responsable a-t-il réagi après les erreurs révélées ?
Sahil Lavingia a admis que l’IA était défaillante, mais a assuré que les contrats « munchables » étaient revus par des humains. Il a été licencié 55 jours après son arrivée et a publié le code sur GitHub tout en partageant son expérience sur son blog.