Le modèle d'IA Claude d'Anthropic, utilisant seize agents travaillant de concert, a réussi à créer un nouveau compilateur C à partir de zéro en deux semaines, selon un récent article de blog du chercheur d'Anthropic Nicholas Carlini. Le projet, qui a coûté environ 20 000 $ en frais d'API, démontre les capacités croissantes des agents d'IA dans les tâches de codage complexes.
Les agents d'IA, fonctionnant sur le modèle Claude Opus 4.6 d'Anthropic, ont reçu une supervision minimale et ont été chargés de construire le compilateur. Le projet a abouti à une base de code de 10 000 lignes. Cette réalisation met en évidence les avancées des outils d'IA multi-agents, Anthropic et OpenAI ayant récemment publié des outils similaires.
Dans d'autres nouvelles, les avocats de la défense demandent l'accès aux dossiers d'enquête relatifs à la mort de Renee Nicole Good par l'agent de l'ICE Jonathan Ross. Les avocats, représentant Roberto Carlos Muñoz-Guatemala, reconnu coupable d'avoir agressé Ross, demandent les dossiers de formation et les dossiers d'enquête relatifs à la fusillade du 7 janvier. Les avocats de Muñoz-Guatemala cherchent à comprendre les circonstances entourant la mort de Good, Ross étant le même agent impliqué dans les deux incidents.
Parallèlement, le "moment OpenClaw" marque la première fois que des agents d'IA autonomes sont passés avec succès du laboratoire à la main-d'œuvre générale. Développé à l'origine sous le nom de "Clawdbot" par l'ingénieur Peter Steinberger, le framework a évolué en "Moltbot" avant de se stabiliser sur "OpenClaw" fin janvier 2026. Contrairement aux chatbots précédents, OpenClaw est conçu avec la capacité d'exécuter des commandes shell, de gérer des fichiers locaux et de naviguer sur les plateformes de messagerie avec des permissions persistantes au niveau racine.
Un rapport distinct détaille une nouvelle chaîne d'attaque, baptisée pivot de gestion des identités et des accès (IAM), qui peut compromettre les environnements cloud en quelques minutes. Selon une recherche de CrowdStrike Intelligence publiée le 29 janvier, l'attaque commence par un message LinkedIn apparemment légitime. Le développeur est ensuite amené à installer un package malveillant qui exfiltre les informations d'identification du cloud, accordant à l'adversaire l'accès à l'environnement cloud.
Enfin, des chercheurs de Stanford, Nvidia et Together AI ont développé une nouvelle technique, appelée Test-Time Training to Discover (TTT-Discover), qui optimise les kernels GPU. La technique permet au modèle de continuer à s'entraîner pendant le processus d'inférence, en mettant à jour ses poids pour le problème spécifique. Cette approche a permis aux chercheurs d'optimiser un kernel GPU critique pour qu'il s'exécute deux fois plus vite que l'état de l'art précédent, qui avait été écrit par des experts humains. Cela remet en question les stratégies actuelles d'IA d'entreprise qui reposent souvent sur des modèles "gelés", selon les chercheurs.
Discussion
AI Experts & Community
Be the first to comment