Nvidia a dévoilé une nouvelle technique pour réduire considérablement les coûts de mémoire du raisonnement des grands modèles de langage (LLM), tandis qu'OpenAI a lancé un nouveau modèle de codage alimenté par des puces Cerebras, marquant un éloignement de sa dépendance au matériel Nvidia. Ces développements, ainsi que les recherches en cours sur le vieillissement cérébral et l'apprentissage des langues, soulignent les progrès rapides de l'intelligence artificielle et des domaines connexes.
Selon VentureBeat, la nouvelle technique de Nvidia, appelée sparsification dynamique de la mémoire (DMS), peut compresser le cache clé-valeur (KV) – la mémoire temporaire utilisée par les LLM – jusqu'à huit fois. Cela permet aux LLM de "réfléchir" plus longtemps et d'explorer davantage de solutions sans manquer de mémoire, comme le rapporte VentureBeat. Bien que d'autres méthodes aient tenté de compresser le cache, l'approche de Nvidia maintient, voire améliore, les capacités de raisonnement du modèle.
Le passage d'OpenAI aux puces Cerebras pour son nouveau modèle de codage GPT-5.3-Codex-Spark représente un écart significatif par rapport à sa dépendance traditionnelle à Nvidia. VentureBeat a noté que ce modèle est conçu pour des temps de réponse quasi instantanés et qu'il s'agit du premier partenariat d'inférence majeur d'OpenAI en dehors de Nvidia. Ce partenariat intervient à un moment charnière pour OpenAI, qui gère une relation tendue avec Nvidia, des critiques concernant sa décision d'introduire des publicités dans ChatGPT, un contrat récemment annoncé avec le Pentagone et des bouleversements organisationnels internes.
Dans d'autres actualités, la recherche continue d'explorer l'impact de la caféine sur le vieillissement cérébral. Une étude portant sur 130 000 personnes suggère qu'une consommation modérée de caféine pourrait réduire le risque de démence, selon Nature News. Le Nature Podcast a également discuté de l'utilisation de l'IA pour décoder les règles d'un ancien jeu de société romain oublié.
Parallèlement, la communauté technologique continue d'innover. Le projet open-source "zed" travaille à la réimplémentation de son moteur de rendu Linux avec wgpu, comme l'indique une demande de fusion sur GitHub. De plus, le site web "lairner" propose des cours dans plus de 60 langues, y compris des langues rares et en voie de disparition, selon Hacker News.
Discussion
AI Experts & Community
Be the first to comment