Nvidia reveló una nueva técnica para reducir drásticamente los costos de memoria del razonamiento de los modelos de lenguaje grandes (LLM), mientras que OpenAI lanzó un nuevo modelo de codificación impulsado por chips Cerebras, lo que marca un cambio de su dependencia del hardware de Nvidia. Estos desarrollos, junto con la investigación en curso sobre el envejecimiento cerebral y el aprendizaje de idiomas, resaltan los rápidos avances en la inteligencia artificial y campos relacionados.
Según VentureBeat, la nueva técnica de Nvidia, llamada esparcimiento dinámico de memoria (DMS), puede comprimir la caché de valor clave (KV) – la memoria temporal que utilizan los LLM – hasta ocho veces. Esto permite que los LLM "piensen" más tiempo y exploren más soluciones sin quedarse sin memoria, según informó VentureBeat. Si bien otros métodos han intentado comprimir la caché, el enfoque de Nvidia mantiene o incluso mejora las capacidades de razonamiento del modelo.
El cambio de OpenAI a los chips Cerebras para su nuevo modelo de codificación GPT-5.3-Codex-Spark representa una desviación significativa de su dependencia tradicional de Nvidia. VentureBeat señaló que este modelo está diseñado para tiempos de respuesta casi instantáneos y es la primera asociación de inferencia importante de OpenAI fuera de Nvidia. La asociación llega en un momento crucial para OpenAI, que está navegando por una relación tensa con Nvidia, críticas por su decisión de introducir anuncios en ChatGPT, un contrato recién anunciado con el Pentágono y una agitación organizativa interna.
En otras noticias, la investigación continúa explorando el impacto de la cafeína en el envejecimiento cerebral. Un estudio de 130.000 personas sugiere que la ingesta moderada de cafeína podría reducir el riesgo de demencia, según Nature News. El Nature Podcast también discutió el uso de la IA para decodificar las reglas de un antiguo juego de mesa romano olvidado.
Mientras tanto, la comunidad tecnológica continúa innovando. El proyecto de código abierto "zed" está trabajando en la reimplementación de su renderizador de Linux con wgpu, como se indica en una solicitud de extracción en GitHub. Además, el sitio web "lairner" ofrece cursos en más de 60 idiomas, incluidos idiomas raros y en peligro de extinción, según Hacker News.
Discussion
AI Experts & Community
Be the first to comment