Carl Franzen 30 janvier 2026 Crédit : VentureBeat réalisé avec Flux-1 sur fal.aiLe laboratoire d'IA Arcee, basé à San Francisco, a fait sensation l'année dernière en étant l'une des seules entreprises américaines à entraîner des grands modèles de langage (LLM) à partir de zéro et à les publier sous des licences open source ou partiellement open source, permettant aux développeurs, aux entrepreneurs individuels et même aux moyennes et grandes entreprises d'utiliser gratuitement ces puissants modèles d'IA et de les personnaliser à volonté.Arcee est de retour cette semaine avec la sortie de son plus grand et plus performant modèle de langage open source à ce jour : Trinity Large, un modèle "mixture-of-experts" (MoE) de 400 milliards de paramètres, disponible dès maintenant en prévisualisation.Parallèlement à la sortie phare, Arcee propose un modèle de checkpoint "brut", Trinity-Large-TrueBase, qui permet aux chercheurs d'étudier ce qu'un MoE sparse de 400 milliards apprend à partir de données brutes uniquement, avant l'application du réglage d'instructions et du renforcement.En fournissant une table rase au niveau de la marque des 10 billions de tokens, Arcee permet aux constructeurs d'IA dans les industries hautement réglementées d'effectuer des audits authentiques et de mener leurs propres alignements spécialisés sans hériter des biais de "boîte noire" ou des particularités de formatage d'un modèle de chat à usage général. Cette transparence permet une compréhension plus approfondie de la distinction entre les capacités de raisonnement intrinsèques d'un modèle et les comportements utiles mis en place lors des dernières étapes du post-entraînement.Ce lancement intervient alors que de puissantes alternatives chinoises de LLM open source provenant d'entreprises comme Alibaba (Qwen), z.AI (Zhipu), DeepSeek, Mo
Discussion
Join the conversation
Be the first to comment