Claude Opus 4.6 d'Anthropic défie Codex d'OpenAI dans un contexte de bouleversements dans l'industrie de l'IA
Anthropic a lancé Claude Opus 4.6 jeudi, une mise à niveau significative de son modèle d'intelligence artificielle phare, le positionnant comme un concurrent direct de Codex d'OpenAI, selon VentureBeat. Ce lancement intervient dans une période volatile pour l'industrie de l'IA et les marchés mondiaux des logiciels, les investisseurs attribuant une récente dégringolade de 285 milliards de dollars des actions de logiciels et de services en partie aux craintes que les outils d'IA ne perturbent les entreprises de logiciels établies.
Claude Opus 4.6 dispose d'une fenêtre contextuelle d'un million de tokens et d'"équipes d'agents", ce qui lui permet de planifier plus soigneusement et de maintenir des flux de travail autonomes plus longs, a rapporté VentureBeat. Anthropic affirme que son modèle surpasse ses concurrents, y compris GPT-5.2 d'OpenAI, sur les principaux benchmarks d'entreprise. Cette sortie est intervenue seulement trois jours après le lancement par OpenAI de son application de bureau Codex, défiant directement l'élan de Claude Code d'Anthropic.
Parallèlement, OpenAI a annoncé GPT-5.3-Codex, une nouvelle version de son modèle de codage, accessible via la ligne de commande, une extension IDE, une interface web et une nouvelle application de bureau macOS, selon Ars Technica. Bien que l'accès à l'API ne soit pas encore disponible, il devrait l'être prochainement. Les tests d'OpenAI indiquent que GPT-5.3-Codex surpasse GPT-5.2-Codex et GPT-5.2 dans des benchmarks tels que SWE-Bench Pro et Terminal-Bench 2.0. Ars Technica a mis en garde contre l'exagération des capacités du modèle, notant que les affirmations selon lesquelles Codex se construit lui-même sont une exagération. Les domaines qu'OpenAI a décrits comme l'utilisant sont similaires à ceux observés dans certaines autres entreprises de développement de logiciels d'entreprise actuellement : gestion des déploiements, débogage.
Dans le domaine des avancées connexes en IA, des chercheurs de Stanford, Nvidia et Together AI ont développé une nouvelle technique appelée Test-Time Training to Discover (TTT-Discover) qui optimise les kernels GPU, a rapporté VentureBeat. Cette technique permet aux modèles de continuer à s'entraîner pendant le processus d'inférence, en mettant à jour ses poids pour le problème spécifique en question. TTT-Discover aurait optimisé un kernel GPU critique pour qu'il s'exécute deux fois plus vite que l'état de l'art précédent écrit par des experts humains.
Le développement rapide des capacités de l'IA est suivi de près par la communauté de l'IA. METR, un organisme de recherche à but non lucratif sur l'IA, met à jour un graphique qui suggère que certaines capacités de l'IA se développent à un rythme exponentiel, selon MIT Technology Review. Le graphique a joué un rôle majeur dans le discours sur l'IA depuis sa première publication en mars de l'année dernière. Claude Opus 4.5, la version précédente du modèle le plus puissant d'Anthropic, a déjà surpassé cette tendance impressionnante.
Les entreprises adoptent de plus en plus de solutions d'IA, les superposant souvent à l'infrastructure existante, selon MIT Technology Review. Cela a conduit à des écosystèmes informatiques complexes qui peuvent être difficiles à gérer.
Discussion
AI Experts & Community
Be the first to comment