Карл Франзен 30 января 2026 г. Источник: VentureBeat, создано с помощью Flux-1 на fal.aiБазирующаяся в Сан-Франциско AI-лаборатория Arcee в прошлом году произвела фурор, став одной из немногих американских компаний, которая обучает большие языковые модели (LLM) с нуля и выпускает их под открытыми или частично открытыми лицензиями для общественности, позволяя разработчикам, индивидуальным предпринимателям и даже средним и крупным предприятиям бесплатно использовать мощные AI-модели и настраивать их по своему усмотрению.Теперь Arcee снова возвращается на этой неделе с выпуском своей самой большой и производительной открытой языковой модели на сегодняшний день: Trinity Large, модель со смесью экспертов (MoE) с 400 миллиардами параметров, доступная сейчас в предварительной версии.Наряду с флагманским релизом, Arcee поставляет "сырую" контрольную модель, Trinity-Large-TrueBase, которая позволяет исследователям изучить, что 400B sparse MoE узнает только из необработанных данных, до применения тонкой настройки инструкций и подкрепления.Предоставляя чистый лист на отметке в 10 триллионов токенов, Arcee позволяет разработчикам AI в строго регулируемых отраслях проводить аутентичные аудиты и проводить свои собственные специализированные выравнивания, не наследуя "черные ящики" предубеждений или причуды форматирования модели чата общего назначения. Эта прозрачность позволяет глубже понять различие между внутренними возможностями рассуждения модели и полезным поведением, настроенным на заключительных этапах постобработки.Этот запуск происходит в то время, когда появляются мощные китайские альтернативы LLM с открытым исходным кодом от таких компаний, как Alibaba (Qwen), z.AI (Zhipu), DeepSeek, Mo
Discussion
Join the conversation
Be the first to comment