Carl Franzen 2026年1月30日 クレジット:VentureBeat、fal.aiのFlux-1で作成サンフランシスコを拠点とするAIラボのArceeは昨年、大規模言語モデル(LLM)をゼロからトレーニングし、オープンソースまたは部分的にオープンソースのライセンスの下で一般公開した唯一の米国企業の1つとして話題になりました。これにより、開発者、個人起業家、さらには中規模から大規模の企業までが、強力なAIモデルを無料で使用し、自由にカスタマイズできるようになりました。そして今週、Arceeはこれまでで最大かつ最高のパフォーマンスを発揮するオープン言語モデル「Trinity Large」(4000億のパラメータを持つMixture-of-Experts(MoE))をプレビュー版としてリリースしました。このフラッグシップモデルのリリースと並行して、Arceeは「raw」チェックポイントモデル「Trinity-Large-TrueBase」も提供します。これにより、研究者は、命令チューニングや強化学習が適用される前に、400BのスパースMoEがrawデータのみから何を学習するかを研究できます。Arceeは、10兆トークンの時点でクリーンな状態を提供することで、高度に規制された業界のAI構築者が、汎用チャットモデルの「ブラックボックス」の偏りやフォーマットの癖を受け継ぐことなく、信頼できる監査を実施し、独自の特殊なアライメントを実施できるようにします。この透明性により、モデルの本来の推論能力と、ポストトレーニングの最終段階で調整された役立つ行動との区別をより深く理解することができます。この発表は、Alibaba(Qwen)、z.AI(Zhipu)、DeepSeek、Moなどの中国の強力なオープンソースLLMの代替案が登場する中で行われました。
Discussion
Join the conversation
Be the first to comment