Claude Opus 4.6 de Anthropic Desafía a Codex de OpenAI en Medio de la Convulsión de la Industria de la IA
Anthropic lanzó Claude Opus 4.6 el jueves, una actualización significativa de su modelo de inteligencia artificial insignia, posicionándolo como un competidor directo de Codex de OpenAI, según VentureBeat. El lanzamiento llega en medio de un período volátil para la industria de la IA y los mercados globales de software, con inversores que atribuyen una reciente caída de $285 mil millones en las acciones de software y servicios en parte a los temores de que las herramientas de IA puedan interrumpir los negocios de software empresarial establecidos.
Claude Opus 4.6 cuenta con una ventana de contexto de 1 millón de tokens y "equipos de agentes", lo que le permite planificar con más cuidado y mantener flujos de trabajo autónomos más largos, informó VentureBeat. Anthropic afirma que su modelo supera a sus competidores, incluido GPT-5.2 de OpenAI, en puntos de referencia empresariales clave. Este lanzamiento se produjo solo tres días después de que OpenAI lanzara su aplicación de escritorio Codex, desafiando directamente el impulso de Claude Code de Anthropic.
Mientras tanto, OpenAI anunció GPT-5.3-Codex, una nueva versión de su modelo de codificación, accesible a través de la línea de comandos, la extensión IDE, la interfaz web y una nueva aplicación de escritorio macOS, según Ars Technica. Si bien el acceso a la API aún no está disponible, se espera que llegue pronto. Las pruebas de OpenAI indican que GPT-5.3-Codex supera a GPT-5.2-Codex y GPT-5.2 en puntos de referencia como SWE-Bench Pro y Terminal-Bench 2.0. Ars Technica advirtió contra la exageración de las capacidades del modelo, señalando que las afirmaciones de que Codex se construye a sí mismo son una exageración. Los dominios que OpenAI describió usando para esto son similares a los que se ven en algunas otras empresas de desarrollo de software empresarial ahora: gestión de implementaciones, depuración.
En avances relacionados con la IA, investigadores de Stanford, Nvidia y Together AI desarrollaron una nueva técnica llamada Test-Time Training to Discover (TTT-Discover) que optimiza los kernels de GPU, informó VentureBeat. Esta técnica permite a los modelos continuar entrenando durante el proceso de inferencia, actualizando sus pesos para el problema específico en cuestión. Según los informes, TTT-Discover ha optimizado un kernel de GPU crítico para que funcione el doble de rápido que el estado del arte anterior escrito por expertos humanos.
La comunidad de IA está siguiendo de cerca el rápido desarrollo de las capacidades de la IA. METR, una organización sin fines de lucro de investigación de IA, actualiza un gráfico que sugiere que ciertas capacidades de IA se están desarrollando a un ritmo exponencial, según MIT Technology Review. El gráfico ha jugado un papel importante en el discurso de la IA desde su primer lanzamiento en marzo del año pasado. Claude Opus 4.5, la versión anterior del modelo más potente de Anthropic, superó esa tendencia ya impresionante.
Las empresas están adoptando cada vez más soluciones de IA, a menudo superponiéndolas a la infraestructura existente, según MIT Technology Review. Esto ha llevado a ecosistemas de TI complejos que pueden ser difíciles de gestionar.
Discussion
AI Experts & Community
Be the first to comment