L'industrie de l'IA change de cap : de la gestion des bots à la reconnaissance faciale défaillante
Le paysage de l'intelligence artificielle est en pleine transformation, des entreprises comme Anthropic et OpenAI passant de l'IA en tant que partenaire conversationnel à l'IA en tant que main-d'œuvre déléguée. Simultanément, la technologie de reconnaissance faciale utilisée par l'Immigration and Customs Enforcement (ICE) et le Customs and Border Protection (CBP) fait l'objet d'un examen de plus en plus minutieux, notamment avec un projet de loi visant à interdire son utilisation.
Selon Ars Technica, Anthropic et OpenAI ont toutes deux lancé cette semaine des produits axés sur la gestion d'équipes d'agents d'IA qui se répartissent le travail et fonctionnent en parallèle. Ces lancements signalent un changement progressif dans l'ensemble du secteur, bien que l'efficacité de ce modèle de supervision reste une question ouverte. « Les agents d'IA actuels nécessitent encore une forte intervention humaine pour détecter les erreurs », a noté Ars Technica.
OpenAI a également annoncé GPT-5.3-Codex, une nouvelle version de son modèle de codage, disponible via la ligne de commande, l'extension IDE, l'interface web et une nouvelle application de bureau macOS. Selon l'entreprise, GPT-5.3-Codex surpasse les versions précédentes dans des benchmarks tels que SWE-Bench Pro et Terminal-Bench 2.0. Bien que certains titres aient suggéré que Codex s'était construit lui-même, Ars Technica a tempéré les attentes, affirmant qu'il s'agissait d'une exagération. OpenAI a décrit son utilisation pour la gestion des déploiements et le débogage, comme d'autres entreprises de développement de logiciels.
Parallèlement, quelques sénateurs démocrates ont présenté le « ICE Out of Our Faces Act », qui interdirait à l'ICE et au CBP d'utiliser la technologie de reconnaissance faciale, a rapporté Ars Technica. Le projet de loi interdirait aux agents d'immigration d'acquérir, de posséder, d'accéder ou d'utiliser tout système de surveillance biométrique ou toute information dérivée d'un tel système. L'interdiction proposée s'étend au-delà de la reconnaissance faciale pour couvrir d'autres technologies de surveillance biométrique, telles que la reconnaissance vocale. Toutes les données collectées à partir de ces systèmes dans le passé devraient être supprimées.
Wired a rapporté que l'application de reconnaissance faciale Mobile Fortify, utilisée par les agents d'immigration américains, n'est pas conçue pour identifier les personnes de manière fiable et a été déployée sans examen approprié. Selon les documents examinés par Wired, le Department of Homeland Security a lancé Mobile Fortify au printemps 2025 pour déterminer ou vérifier l'identité des personnes arrêtées ou détenues par les agents du DHS. Le DHS a explicitement lié le déploiement à un décret présidentiel signé par le président Donald Trump, qui appelait à une répression des immigrants sans papiers.
Dans un incident sans rapport, Bing a inexplicablement commencé à bloquer environ 1,5 million de sites web indépendants hébergés sur Neocities, a rapporté Ars Technica. Neocities, fondé en 2013 pour archiver les sites web GeoCities, permet aux utilisateurs de concevoir des sites web gratuits sans modèles standardisés.
Discussion
AI Experts & Community
Be the first to comment