कार्ल फ्रांज़ेन 30 जनवरी, 2026 क्रेडिट: VentureBeat fal.ai पर Flux-1 के साथ बनाया गया सैन फ्रांसिस्को स्थित AI लैब Arcee ने पिछले साल बड़े पैमाने पर सुर्खियां बटोरीं क्योंकि यह एकमात्र अमेरिकी कंपनी थी जिसने बड़े भाषा मॉडल (LLM) को स्क्रैच से प्रशिक्षित किया और उन्हें सार्वजनिक रूप से ओपन या आंशिक रूप से ओपन सोर्स लाइसेंस के तहत जारी किया, जिससे डेवलपर्स, एकल उद्यमियों और यहां तक कि मध्यम से बड़े उद्यमों को शक्तिशाली AI मॉडल का मुफ्त में उपयोग करने और उन्हें अपनी इच्छानुसार अनुकूलित करने में सक्षम बनाया गया। अब Arcee इस सप्ताह अपने सबसे बड़े, सबसे बेहतर ओपन लैंग्वेज मॉडल को जारी करने के साथ फिर से वापस आ गया है: Trinity Large, एक 400-बिलियन पैरामीटर मिक्सचर-ऑफ-एक्सपर्ट्स (MoE), जो अब पूर्वावलोकन में उपलब्ध है। फ्लैगशिप रिलीज़ के साथ, Arcee एक "रॉ" चेकपॉइंट मॉडल, Trinity-Large-TrueBase शिपिंग कर रहा है, जो शोधकर्ताओं को यह अध्ययन करने की अनुमति देता है कि एक 400B स्पार्स MoE केवल कच्चे डेटा से क्या सीखता है, निर्देश ट्यूनिंग और रीइन्फोर्समेंट लागू होने से पहले। 10-ट्रिलियन-टोकन मार्क पर एक साफ स्लेट प्रदान करके, Arcee अत्यधिक विनियमित उद्योगों में AI बिल्डरों को प्रामाणिक ऑडिट करने और सामान्य-उद्देश्य वाले चैट मॉडल के "ब्लैक बॉक्स" पूर्वाग्रहों या फ़ॉर्मेटिंग क्विर्क को विरासत में लिए बिना अपने स्वयं के विशेष संरेखण का संचालन करने में सक्षम बनाता है। यह पारदर्शिता एक मॉडल की आंतरिक तर्क क्षमताओं और पोस्ट-ट्रेनिंग के अंतिम चरणों के दौरान डायल किए गए सहायक व्यवहारों के बीच अंतर की गहरी समझ की अनुमति देती है। यह लॉन्च अलीबाबा (Qwen), z.AI (Zhipu), DeepSeek, Mo जैसे शक्तिशाली चीनी ओपन-सोर्स LLM विकल्पों के रूप में आता है।
Discussion
Join the conversation
Be the first to comment