OpenAI lanzó un nuevo modelo de codificación, GPT-5.3-Codex-Spark, diseñado para tiempos de respuesta rápidos, marcando su primer movimiento importante más allá de su dependencia tradicional de los chips de Nvidia, según VentureBeat. El modelo, que funciona con hardware de Cerebras Systems, apunta a una generación de código "casi instantánea". Mientras tanto, investigadores de Nvidia desarrollaron una técnica para reducir los costos de memoria del razonamiento de modelos de lenguaje grandes hasta ocho veces, según informó VentureBeat.
El nuevo modelo de OpenAI representa un cambio significativo para la empresa, que ha dependido principalmente de Nvidia para su infraestructura. Esta medida se produce en un contexto de una relación tensa con Nvidia, críticas sobre los anuncios de ChatGPT, un nuevo contrato con el Pentágono y cambios organizativos internos, según VentureBeat. La asociación con Cerebras Systems, un fabricante de chips especializado en cargas de trabajo de IA de baja latencia, se considera un movimiento estratégico.
La nueva técnica de Nvidia, llamada sparsificación dinámica de memoria (DMS), comprime la caché de valor clave (KV), la memoria temporal que generan los LLM. Los experimentos muestran que DMS permite a los LLM "pensar" más tiempo y explorar más soluciones sin pérdida de precisión, según VentureBeat.
En otras noticias tecnológicas, Waymo, el desarrollador de conducción autónoma, está buscando cambios regulatorios en Washington, DC, para permitir que sus robotaxis operen sin conductores humanos, según Wired. La compañía ha estado presionando a los funcionarios de la ciudad para que aprueben nuevas regulaciones durante más de un año.
Además, una ola de tráfico de bots inexplicables está arrasando la web, según informó Wired. Un analista de datos vio un aumento repentino del tráfico desde China y Singapur a su sitio web, que publica artículos sobre actividades paranormales.
Finalmente, Wired informó sobre varios otros desarrollos, incluidos los planes de ICE para expandirse por los EE. UU. y la respuesta del CEO de Palantir, Alex Karp, a las preocupaciones de los empleados sobre el trabajo con ICE. Además, un escritor de Wired experimentó con un asistente de IA, OpenClaw, para ver cómo podía gestionar las tareas diarias.
Discussion
AI Experts & Community
Be the first to comment