Nvidia a dévoilé une nouvelle technique qui réduit considérablement les coûts de mémoire associés au raisonnement des grands modèles de langage (LLM), tandis que la startup chinoise d'IA MiniMax a lancé un nouveau modèle de langage promettant de rendre l'IA haut de gamme plus abordable, selon des rapports des 12 et 13 février 2026. Ces développements surviennent alors que l'industrie de l'IA continue d'évoluer rapidement, la sparsification dynamique de la mémoire (DMS) de Nvidia pouvant potentiellement réduire les coûts de raisonnement des LLM jusqu'à huit fois, et le modèle M2.5 de MiniMax offrant une alternative rentable aux solutions d'IA haut de gamme existantes.
La technique DMS de Nvidia compresse le cache clé-valeur (KV), la mémoire temporaire que les LLM utilisent pour traiter les invites et raisonner à travers les problèmes. Selon VentureBeat, des expériences ont montré que DMS permet aux LLM de "penser" plus longtemps et d'explorer plus de solutions sans augmenter l'utilisation de la mémoire. Bien que d'autres méthodes aient été proposées pour compresser ce cache, l'approche de Nvidia maintient, et dans certains cas améliore, les capacités de raisonnement du modèle.
Parallèlement, MiniMax, dont le siège est à Shanghai, a lancé son modèle de langage M2.5 en deux variantes. VentureBeat a rapporté que ce modèle promet de rendre l'IA haut de gamme si bon marché que les utilisateurs pourraient ne pas se soucier du coût. Le modèle a été rendu open source sur Hugging Face sous une licence MIT modifiée, exigeant que ceux qui utilisent le modèle à des fins commerciales "affichent en évidence 'MiniMax M2.5' sur l'interface utilisateur de ce produit ou service."
Ces avancées en matière d'IA surviennent à une époque où l'industrie connaît des changements importants. Quinze ans auparavant, la prédiction de Marc Andreessen selon laquelle le logiciel "mangera le monde" s'est réalisée d'une manière qui n'était pas pleinement anticipée, selon Fortune. Le logiciel a en effet transformé des industries comme la vente au détail, la vidéo, la musique et les télécommunications.
Dans d'autres nouvelles, le Venezuela débat d'une amnistie générale pour les prisonniers politiques, comme l'a rapporté NPR News le 13 février 2026. De plus, une étude suggère qu'une consommation modérée de caféine pourrait réduire le risque de démence, selon Nature News.
Discussion
AI Experts & Community
Be the first to comment