IA sous surveillance : le HHS utilise Palantir pour le filtrage DEI, les dossiers Epstein sont publiés et les préoccupations concernant la vérité de l'IA augmentent
Le ministère de la Santé et des Services sociaux (HHS) a utilisé des outils d'intelligence artificielle de Palantir pour examiner les subventions et les descriptions de poste afin de vérifier leur conformité avec les décrets de l'ancien président Donald Trump ciblant les initiatives de diversité, d'équité et d'inclusion (DEI) et l'idéologie du genre, selon un inventaire récemment publié de l'utilisation de l'IA par le HHS en 2025. Cette révélation survient alors que le ministère de la Justice a publié environ 3,5 millions de pages de dossiers liés au délinquant sexuel condamné Jeffrey Epstein, révélant des liens avec des personnalités importantes du secteur technologique, et que les inquiétudes grandissent quant au potentiel de l'IA à éroder la confiance de la société.
Selon Wired, le HHS utilise les outils d'IA de Palantir depuis mars 2025 pour auditer les subventions, les demandes de subventions et les descriptions de poste. Ni Palantir ni le HHS n'ont annoncé publiquement cette utilisation du logiciel de l'entreprise. Au cours du deuxième mandat de Trump, Palantir a reçu plus de 35 millions de dollars en paiements et obligations du HHS, bien que les descriptions de ces transactions ne mentionnent pas le ciblage de la DEI ou de l'idéologie du genre.
La publication des dossiers Epstein, mandatée par la loi sur la transparence des dossiers Epstein du 19 novembre 2025, a ravivé l'attention sur les relations entre Epstein et des individus du monde de la technologie. Alors que certains, comme le cofondateur de Microsoft, Bill Gates, sont associés à Epstein depuis longtemps, d'autres, comme Elon Musk, avaient des liens moins établis avant la publication, a rapporté Wired. Il est important de noter que la présence d'un nom dans les dossiers Epstein n'implique pas nécessairement un acte répréhensible.
Parallèlement, les inquiétudes grandissent quant au potentiel de l'IA à contribuer à une « crise de la vérité ». MIT Technology Review a rapporté que le département américain de la Sécurité intérieure utilise des générateurs de vidéos d'IA de Google et d'Adobe pour créer du contenu destiné à la consommation publique. Cette nouvelle a soulevé des inquiétudes quant au potentiel du contenu généré par l'IA à tromper le public, à façonner les croyances et à éroder la confiance de la société. L'article a également noté que les outils initialement destinés à lutter contre cette crise s'avèrent inadéquats.
Dans le domaine de l'IA d'entreprise, VentureBeat rapporte que les entreprises adoptent de plus en plus la génération augmentée par la récupération (RAG) pour ancrer les grands modèles de langage (LLM) dans des données propriétaires. Cependant, de nombreuses organisations constatent que la récupération est devenue une dépendance fondamentale du système, plutôt qu'une fonctionnalité ajoutée à l'inférence du modèle. Les échecs de récupération peuvent nuire à la confiance, à la conformité et à la fiabilité opérationnelle. « Un contexte obsolète, des chemins d'accès non contrôlés et des pipelines de récupération mal évalués ne se contentent pas de dégrader la qualité des réponses ; ils nuisent à la confiance, à la conformité et à la fiabilité opérationnelle », a noté VentureBeat.
Arnab Bose, CPO d'Asana, a souligné l'importance de la mémoire partagée et du contexte pour le succès des agents d'IA au sein d'une entreprise. Il a déclaré lors d'un récent événement VB à San Francisco que fournir aux agents d'IA un historique détaillé et un accès direct, ainsi que des points de contrôle de garde-fou et une surveillance humaine, leur permet de fonctionner comme des coéquipiers actifs. « De cette façon, lorsque vous attribuez une tâche, vous n'avez pas à fournir à nouveau tout le contexte sur le fonctionnement de votre entreprise », a déclaré Bose. Asana a lancé Asana AI Teammates l'année dernière dans le but de créer un système collaboratif où les agents d'IA sont directement intégrés aux équipes et aux projets.
Discussion
AI Experts & Community
Be the first to comment