El nuevo modelo Qwen 3.5 de Alibaba está desafiando el panorama de la IA empresarial, alardeando de victorias en pruebas de referencia contra su propio modelo insignia, a la vez que opera a una fracción del costo, según VentureBeat. El lanzamiento, programado para coincidir con el Año Nuevo Lunar, marca un momento significativo para los líderes de TI que evalúan la infraestructura de IA para 2026. Simultáneamente, Anthropic lanzó Claude Sonnet 4.6, que ofrece una inteligencia casi insignia a un costo de nivel medio, y Google DeepMind está pidiendo un mayor escrutinio del comportamiento moral de los modelos de lenguaje grandes.
Qwen 3.5, que contiene un total de 397 mil millones de parámetros pero activa solo 17 mil millones por token, está reclamando victorias en pruebas de referencia contra el anterior modelo insignia de Alibaba, Qwen3-Max, un modelo que la compañía reconoció que superaba el billón de parámetros, informó VentureBeat. Esto presenta un argumento convincente para los compradores de IA empresarial, sugiriendo que un modelo que pueden ejecutar, poseer y controlar ahora puede competir con opciones más costosas.
Claude Sonnet 4.6 de Anthropic, lanzado el martes, está posicionado para acelerar la adopción empresarial al ofrecer una inteligencia casi insignia a un costo de nivel medio. El modelo presenta una ventana de contexto de 1 millón de tokens en beta y ahora es el modelo predeterminado en claude.ai y Claude Cowork. El precio se mantiene estable en $315 por millón de tokens, el mismo que su predecesor, Sonnet 4.5, según VentureBeat. "Ofrece una inteligencia casi insignia a un costo de nivel medio, y se sitúa directamente en medio de una prisa corporativa sin precedentes por implementar agentes de IA y herramientas de codificación automatizadas", afirmó VentureBeat.
Estos avances se producen cuando la industria se enfrenta a las complejidades de la implementación de la IA en dominios de alto riesgo. LexisNexis, por ejemplo, ha evolucionado más allá de la generación aumentada por recuperación (RAG) estándar a graph RAG y agentes gráficos para abordar la necesidad de precisión, relevancia, autoridad y precisión de citas, según informó VentureBeat. "No existe la IA perfecta porque nunca se obtiene el 100% de precisión o el 100% de relevancia, especialmente en dominios complejos y de alto riesgo como el legal", según VentureBeat.
Mientras tanto, Google DeepMind está abogando por un mayor escrutinio del comportamiento moral de los modelos de lenguaje grandes. A medida que los LLM mejoran y asumen roles más sensibles, como compañeros, terapeutas y asesores médicos, Google DeepMind quiere asegurar que la tecnología sea confiable. "Con la codificación y las matemáticas, se tienen respuestas claras y correctas que se pueden verificar", dijo William Isaac, un científico investigador de Google DeepMind, a MIT Technology Review.
AI Experts & Community
Be the first to comment