Carl Franzen 30 de janeiro de 2026 Crédito: VentureBeat feito com Flux-1 em fal.aiO laboratório de IA Arcee, com sede em São Francisco, causou impacto no ano passado por ser uma das únicas empresas dos EUA a treinar modelos de linguagem grandes (LLMs) do zero e lançá-los sob licenças de código aberto ou parcialmente abertas ao público, permitindo que desenvolvedores, empreendedores individuais e até mesmo empresas de médio a grande porte usem os poderosos modelos de IA gratuitamente e os personalizem à vontade.Agora, a Arcee está de volta esta semana com o lançamento de seu maior e mais eficiente modelo de linguagem aberto até o momento: Trinity Large, um modelo de mistura de especialistas (MoE) de 400 bilhões de parâmetros, disponível agora em versão de visualização.Juntamente com o lançamento principal, a Arcee está lançando um modelo de checkpoint "bruto", Trinity-Large-TrueBase, que permite aos pesquisadores estudar o que um MoE esparso de 400 bilhões aprende apenas com dados brutos, antes que o ajuste de instrução e o reforço sejam aplicados.Ao fornecer uma tela limpa na marca de 10 trilhões de tokens, a Arcee permite que os criadores de IA em setores altamente regulamentados realizem auditorias autênticas e conduzam seus próprios alinhamentos especializados sem herdar os vieses de "caixa preta" ou peculiaridades de formatação de um modelo de bate-papo de uso geral. Essa transparência permite uma compreensão mais profunda da distinção entre as capacidades intrínsecas de raciocínio de um modelo e os comportamentos úteis definidos durante os estágios finais do pós-treinamento.Este lançamento chega no momento em que alternativas poderosas de LLM de código aberto chinesas de empresas como Alibaba (Qwen), z.AI (Zhipu), DeepSeek, Mo
Discussion
Join the conversation
Be the first to comment