Carl Franzen 30 de enero de 2026 Crédito: VentureBeat hecho con Flux-1 en fal.aiEl laboratorio de IA Arcee, con sede en San Francisco, causó sensación el año pasado por ser una de las únicas empresas estadounidenses en entrenar modelos de lenguaje grandes (LLM) desde cero y publicarlos bajo licencias de código abierto o parcialmente abierto al público, lo que permite a los desarrolladores, emprendedores individuales e incluso empresas medianas y grandes utilizar los potentes modelos de IA de forma gratuita y personalizarlos a voluntad. Ahora, Arcee vuelve esta semana con el lanzamiento de su modelo de lenguaje abierto más grande y de mayor rendimiento hasta la fecha: Trinity Large, una mezcla de expertos (MoE) de 400.000 millones de parámetros, disponible ahora en vista previa. Junto con el lanzamiento estrella, Arcee está enviando un modelo de punto de control "sin procesar", Trinity-Large-TrueBase, que permite a los investigadores estudiar lo que un MoE disperso de 400B aprende solo de los datos sin procesar, antes de que se apliquen el ajuste de instrucciones y el refuerzo. Al proporcionar una pizarra limpia en la marca de los 10 billones de tokens, Arcee permite a los creadores de IA en industrias altamente reguladas realizar auditorías auténticas y llevar a cabo sus propias alineaciones especializadas sin heredar los sesgos de "caja negra" o las peculiaridades de formato de un modelo de chat de propósito general. Esta transparencia permite una comprensión más profunda de la distinción entre las capacidades de razonamiento intrínsecas de un modelo y los comportamientos útiles marcados durante las etapas finales del post-entrenamiento. Este lanzamiento llega cuando alternativas de LLM de código abierto chinas potentes de empresas como Alibaba (Qwen), z.AI (Zhipu), DeepSeek, Mo
Discussion
Join the conversation
Be the first to comment