L'administration Trump a éliminé une conclusion clé qui sous-tendait les limites à la pollution réchauffant la planète provenant des voitures et des centrales électriques, selon The Verge, tout en constatant également des avancées dans les voyages spatiaux et l'intelligence artificielle. Simultanément, OpenAI a publié son premier modèle d'IA de production à fonctionner sur du matériel non-Nvidia, et Nvidia a développé une technique pour réduire les coûts de mémoire du raisonnement des grands modèles de langage. Dans d'autres nouvelles, un site web a connu une augmentation du trafic de bots en provenance de Chine et de Singapour.
L'Environmental Protection Agency a abrogé la conclusion qui soutenait les restrictions sur la pollution des véhicules et des centrales électriques, comme l'a rapporté The Verge. Cette action a été prise le 12 février 2026.
Dans le domaine de l'exploration spatiale, la fusée Ariane 6 de l'Europe a été lancée avec succès pour la première fois, livrant 32 engins spatiaux en orbite terrestre basse pour la constellation de haut débit par satellite d'Amazon, a rapporté Ars Technica. La configuration Ariane 64, utilisant les quatre boosters, a généré plus de 3,4 millions de livres de poussée. Le lancement a eu lieu jeudi depuis le Centre spatial guyanais.
OpenAI a présenté son nouveau modèle de codage GPT-5.3-Codex-Spark sur des puces de Cerebras, marquant son premier modèle d'IA de production à fonctionner sur du matériel non-Nvidia, a également noté Ars Technica. Le modèle fournit du code à plus de 1 000 tokens par seconde, environ 15 fois plus vite que son prédécesseur. "Cerebras a été un excellent partenaire d'ingénierie, et nous sommes enthousiastes à l'idée d'ajouter l'inférence rapide comme nouvelle capacité de plateforme", a déclaré Sachin Katti, responsable d'OpenAI.
Les chercheurs de Nvidia ont développé une technique appelée sparsification dynamique de la mémoire (DMS) qui peut réduire les coûts de mémoire du raisonnement des grands modèles de langage jusqu'à huit fois, a rapporté VentureBeat. Cette technique compresse le cache clé-valeur (KV), qui est la mémoire temporaire que les LLM génèrent. Des expériences ont montré que DMS permet aux LLM de "penser" plus longtemps et d'explorer plus de solutions.
Enfin, un site web publiant des articles sur les activités paranormales a connu une augmentation du trafic de bots en provenance de Chine et de Singapour, selon Wired. Le propriétaire du site web, Alejandro Quintero, a d'abord pensé qu'il avait trouvé un nouveau public. Le trafic en provenance de ces deux pays représente désormais plus de la moitié du total des visites du site au cours des 12 derniers mois.
Discussion
AI Experts & Community
Be the first to comment