Intelligence artificielle – Toute l’actualitéActualités & UpdatesDOGE Utilise un Outil d’Intelligence Artificielle Défectueux pour Modifier Erronément les Contrats du Département des Anciens Combattants

DOGE Utilise un Outil d’Intelligence Artificielle Défectueux pour Modifier Erronément les Contrats du Département des Anciens Combattants

DOGE Utilise un Outil d’IA Défectueux pour Réviser les Contrats du Département des Anciens Combattants

Le département chargé de l’efficience gouvernementale (DOGE) a employé un modèle d’intelligence artificielle (IA) défaillant pour analyser et annuler plusieurs contrats du Département des Anciens Combattants (VA), ce qui a généré des controverses sur la qualité et la pertinence de cette démarche.

Contexte et Objectif de l’Outil IA

Confronté à une directive présidentielle exigeant la révision rapide des contrats gouvernementaux, DOGE a conçu une IA destinée à évaluer la nécessité des contrats VA dans un délai serré de 30 jours. Cette IA devait identifier les contrats pouvant être internalisés par le personnel du VA, dits « munchables ».

Fonctionnement et Limites de l’IA

  • L’outil ne traitait qu’un extrait limité des contrats (environ 2 500 mots), ce qui réduisait la compréhension complète des engagements contractuels.
  • Les définitions essentielles, telles que « soins médicaux de base » ou ce qu’englobe la diversité, équité et inclusion (DEI), restaient ambiguës, induisant des évaluations erronées.
  • Une consigne imprécise sur la « raisonnabilité » des tarifs a conduit l’IA à des interprétations arbitraires des coûts.
  • La modélisation basée sur un algorithme général et obsolète a provoqué des hallucinations, avec des valeurs contractuelles très exagérées.

Conséquences sur les Contrats VA

Initialement, le VA a annoncé l’annulation de 875 contrats, évalués à plusieurs millions de dollars. Après critiques des organisations vétérans, ce nombre a été ramené à environ 585 contrats jugés non essentiels, réallouant près de 900 millions de dollars au VA.

Certaines annulations ont suscité des inquiétudes, notamment pour des contrats liés aux inspections de sécurité dans les établissements médicaux et aux communications directes avec les vétérans.

Responsabilités et Réactions

Sahil Lavingia, l’ingénieur à l’origine du code, a reconnu les limitations de l’outil tout en assurant que tous les contrats identifiés étaient par la suite vérifiés manuellement. Son départ de DOGE peu après la révélation du projet examine ce qui semble être un problème de communication entre les conseillers de DOGE, les dirigeants du VA et les législateurs.

Points Clés

  • Le modèle IA utilisé par DOGE pour analyser les contrats VA était inadapté et basé sur des directives floues.
  • Des centaines de contrats ont été annulés, affectant potentiellement des services critiques aux anciens combattants.
  • Des inquiétudes subsistent sur la coordination entre les différentes parties prenantes du projet.

DOGE et son Outil d’IA Défaillant pour “Manger” les Contrats des Anciens Combattants : Une Histoire d’Erreur et de Confusion

DOGE a utilisé un outil d’intelligence artificielle défaillant pour annuler à la hâte des centaines de contrats du Département des Anciens Combattants (VA), causant des dégâts évalués à plusieurs millions de dollars. Voilà l’essentiel, direct et sans détours. Mais comment une telle situation a-t-elle pu se produire ? On vous explique.

En 2019, l’administration Trump a ordonné à la cellule DOGE (Department of Government Efficiency) de passer au crible les contrats gouvernementaux pour s’assurer de leur alignement avec les politiques présidentielles. Un défi de taille : seulement 30 jours pour mettre en œuvre cette directive.

Plus ML  Crise Économique : Risques Multiples pour les Emplois Fragilisés et Stratagèmes de Résilience

Dans cette course contre la montre, un ingénieur, Sahil Lavingia, a développé un modèle d’IA pour assister cette revue. L’idée semblait intelligente sur le papier : automatiser la sélection des contrats à annuler, ceux considérés comme “inutilement externalisés” — dont la tâche pouvait être réalisée par les équipes internes du VA. En pratique ? C’est une autre histoire.

Un Outil IA Mal Conçu et Mal Paramétré

Le problème clé ? L’IA ne consultait que les 10 000 premiers caractères de chaque contrat, soit environ 2 500 mots. Autant dire qu’elle survolait la majorité des détails cruciaux. Ce paramètre drastique a mené à des choix douteux. Le terme “munchable,” inventé par Lavingia, signifie que le contrat pouvait être “grignoté” par le personnel interne, c’est-à-dire annulé.

Plus embêtant encore, Lavingia n’a pas pris la peine de définir précisément ce qui relevait du “core medical/benefits” (services médicaux essentiels). Des experts consultés par ProPublica ont souligné que beaucoup de termes clés étaient flous, ce qui a conduit à des erreurs majeures. Par exemple, le modèle devait “tuer” les programmes DEI — diversité, équité, inclusion — mais aucune définition claire de ces programmes n’avait été fournie à l’IA. Résultat : elle a interprété cela comme elle l’entendait, ce qui a probablement mené à la suppression de contrats dont l’utilité était contestable.

Pour les contrats de maintenance, l’IA devait aussi estimer si les prix étaient “raisonnables” sans cadre précis. Une tâche périlleuse quand on sait que “raisonnable” est un terme qui fait débat même entre humains. En plus, cette IA fonctionnait sur un modèle ancien, généraliste, très inadapté à une mission aussi complexe. Elle “hallucinait” souvent les montants des contrats : des milliers étaient transformés en dizaines de millions, déformant totalement la réalité.

Pas rassurant, n’est-ce pas ? Pourtant, Lavingia a insisté auprès de ProPublica que chaque contrat “munchable” était relu par des humains pour éviter les faux pas. Une assurance qui, malgré tout, n’a pas suffi à sauver la crédibilité de l’opération.

Un Impact Direct sur les Contrats des Anciens Combattants

En février, la VA a annoncé l’annulation de 875 contrats. Une mesure choc qui a fait grincer des dents. Les défenseurs des anciens combattants se sont vite alarmés. Parmi ces contrats figuraient des interventions cruciales comme les inspections de sécurité dans les établissements médicaux, les communications directes avec les vétérans concernant leurs droits, et même des accords clés pour recruter des médecins.

Face à la contestation et aux critiques, la VA a corrigé le tir. En mars, elle a revu ce chiffre à la baisse, annonçant qu’environ 585 contrats seulement seraient annulés, principalement ceux jugés “non essentiels” ou redondants. Cette révision a permis de libérer près de 900 millions de dollars destinés à être réinjectés dans les services de l’agence.

Qui est Sahil Lavingia et Comment la Communication a Fait Défaillir le Système

Sahil Lavingia, l’ingénieur à l’origine du code, a eu une trajectoire fulgurante. Recruté par DOGE, il a été mis à la tâche sur ce projet délicat avant d’être remercié 55 jours seulement après son embauche, suite à ses échanges avec la presse. Lavingia a pris la parole sur son blog pour expliquer son travail et a même publié le code source employé sur GitHub, preuve transparente d’un projet mal serein.

Plus ML  Licenciement d’un assistant juridique non agréé après des hallucinations de ChatGPT dans un dossier judiciaire

Une source proche des opérations a évoqué une “rupture de communication” entre les conseillers de DOGE, la direction du VA et les législateurs responsables du département. Cette défaillance a contribué à une mise en œuvre chaotique, où les bonnes intentions se sont heurtées à la réalité administrative et technique.

Leçons à Tirer et Conclusions

La mésaventure DOGE illustre à quel point l’automatisation, sans cadre clair et contrôle humain rigoureux, peut conduire à des erreurs coûteuses. Quelques conseils pratiques pour éviter ce genre de piège :

  • Ne jamais confier une tâche complexe à un outil IA inadapté. Choisir ou développer un modèle spécifiquement conçu pour la mission.
  • Définir clairement les critères et termes importants. Sans définitions précises, l’IA va improviser, souvent à tort.
  • Prévoir un contrôle humain approfondi et indépendant. L’IA doit rester un assistant, pas le décideur final.
  • Assurer une communication fluide entre toutes les parties prenantes. Cela évite les malentendus et les décisions aveugles.

Et vous, que pensez-vous de l’usage de l’IA dans les décisions publiques ? Est-ce un outil miracle ou un risque potentiel ? N’hésitez pas à partager votre avis. Si vous travaillez dans un domaine où l’IA apporte son aide, assurez-vous que le cadre est bien posé. Sinon, vous pourriez vous retrouver avec des contrats “munchés” qui auraient pu sauver des vies.


Qu’est-ce que DOGE a utilisé pour examiner les contrats du Département des Anciens Combattants ?

DOGE a utilisé un outil d’intelligence artificielle imparfait pour analyser les contrats. Cet outil a fait des erreurs en évaluant les contrats à cause de limites dans ses instructions et sa conception.

Quels problèmes ont été causés par cet outil d’IA dans la gestion des contrats ?

L’outil a annulé plusieurs centaines de contrats importants, certains liés à la sécurité et au recrutement médical. La définition floue de termes a entraîné la suppression de contrats essentiels.

Pourquoi l’IA a-t-elle mal évalué certains contrats ?

L’IA analysait uniquement les 10 000 premiers caractères des contrats, ne comprenait pas certains termes clés et a utilisé un modèle obsolète. Elle a parfois inventé des montants exagérés, ce qui a mené à des erreurs.

Comment DOGE a-t-il tenté de corriger ces erreurs ?

Sahil Lavingia a reconnu les défauts de l’IA. Il a assuré que tous les contrats jugés « mangeables » par l’outil avaient été revus par des personnes avant toute décision.

Quelle a été la réaction initiale du Département des Anciens Combattants concernant les annulations ?

Initialement, 875 contrats ont été annulés. Après critiques, ce chiffre a été réduit à environ 585, pour éviter de porter atteinte aux services critiques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *