Le nouveau modèle Qwen 3.5 d'Alibaba défie le paysage de l'IA d'entreprise, se vantant de victoires aux benchmarks contre son propre modèle phare tout en fonctionnant à une fraction du coût, selon VentureBeat. Cette sortie, programmée pour coïncider avec le Nouvel An lunaire, marque un moment important pour les responsables informatiques évaluant l'infrastructure d'IA pour 2026. Simultanément, Anthropic a publié Claude Sonnet 4.6, offrant une intelligence quasi-phare à un coût moyen, et Google DeepMind appelle à une surveillance accrue du comportement moral des grands modèles de langage.
Qwen 3.5, qui contient 397 milliards de paramètres au total mais n'en active que 17 milliards par jeton, revendique des victoires aux benchmarks contre le précédent modèle phare d'Alibaba, Qwen3-Max, un modèle que la société a reconnu dépasser un billion de paramètres, a rapporté VentureBeat. Cela présente un argument convaincant pour les acheteurs d'IA d'entreprise, suggérant qu'un modèle qu'ils peuvent exécuter, posséder et contrôler peut désormais rivaliser avec des options plus coûteuses.
Claude Sonnet 4.6 d'Anthropic, sorti mardi, est positionné pour accélérer l'adoption par les entreprises en offrant une intelligence quasi-phare à un coût moyen. Le modèle dispose d'une fenêtre contextuelle de 1 million de jetons en version bêta et est désormais le modèle par défaut dans claude.ai et Claude Cowork. La tarification reste stable à 315 $ par million de jetons, la même que son prédécesseur, Sonnet 4.5, selon VentureBeat. "Il offre une intelligence quasi-phare à un coût moyen, et il se situe en plein milieu d'une ruée sans précédent des entreprises pour déployer des agents d'IA et des outils de codage automatisés", a déclaré VentureBeat.
Ces avancées surviennent alors que l'industrie est aux prises avec les complexités du déploiement de l'IA dans des domaines à enjeux élevés. LexisNexis, par exemple, a évolué au-delà de la génération augmentée par récupération (RAG) standard vers le graph RAG et les graphes agentiques pour répondre au besoin d'exactitude, de pertinence, d'autorité et d'exactitude des citations, comme l'a rapporté VentureBeat. "Il n'existe pas d'IA parfaite car on n'obtient jamais 100 % d'exactitude ou 100 % de pertinence, surtout dans des domaines complexes et à enjeux élevés comme le droit", selon VentureBeat.
Parallèlement, Google DeepMind plaide pour une surveillance accrue du comportement moral des grands modèles de langage. Alors que les LLM s'améliorent et assument des rôles plus sensibles, tels que des compagnons, des thérapeutes et des conseillers médicaux, Google DeepMind veut s'assurer que la technologie est digne de confiance. "Avec le codage et les mathématiques, vous avez des réponses claires et correctes que vous pouvez vérifier", a déclaré William Isaac, chercheur scientifique chez Google DeepMind, à MIT Technology Review.
AI Experts & Community
Be the first to comment