كارل فرانزن 30 يناير 2026 مصدر الصورة: VentureBeat تم إنشاؤه باستخدام Flux-1 على fal.aiأحدث مختبر الذكاء الاصطناعي Arcee، ومقره سان فرانسيسكو، ضجة كبيرة العام الماضي لكونه إحدى الشركات الأمريكية الوحيدة التي تدرب نماذج لغوية كبيرة (LLMs) من الصفر وتطلقها بموجب تراخيص مفتوحة المصدر أو مفتوحة المصدر جزئيًا للجمهور، مما يمكن المطورين ورواد الأعمال المنفردين وحتى المؤسسات المتوسطة إلى الكبيرة من استخدام نماذج الذكاء الاصطناعي القوية مجانًا وتخصيصها حسب الرغبة. الآن عادت Arcee مرة أخرى هذا الأسبوع بإصدار أكبر نموذج لغوي مفتوح وأكثر فعالية حتى الآن: Trinity Large، وهو نموذج خليط من الخبراء (MoE) بـ 400 مليار معلمة، ومتاح الآن في نسخة تجريبية، وإلى جانب الإصدار الرئيسي، تقوم Arcee بشحن نموذج نقطة تفتيش "خام"، Trinity-Large-TrueBase، والذي يسمح للباحثين بدراسة ما يتعلمه MoE متفرق بـ 400 مليار معلمة من البيانات الأولية وحدها، قبل تطبيق الضبط التعليمي والتعزيز. من خلال توفير صفحة نظيفة عند علامة 10 تريليون رمز، تمكن Arcee بناة الذكاء الاصطناعي في الصناعات شديدة التنظيم من إجراء عمليات تدقيق أصلية وإجراء عمليات المحاذاة المتخصصة الخاصة بهم دون وراثة تحيزات "الصندوق الأسود" أو المراوغات التنسيقية لنموذج دردشة للأغراض العامة. تسمح هذه الشفافية بفهم أعمق للتمييز بين قدرات الاستدلال الجوهرية للنموذج والسلوكيات المفيدة التي تم ضبطها خلال المراحل النهائية من التدريب اللاحق. يأتي هذا الإطلاق في الوقت الذي تظهر فيه بدائل LLM قوية مفتوحة المصدر صينية من أمثال Alibaba (Qwen) و z.AI (Zhipu) و DeepSeek و Mo
Discussion
Join the conversation
Be the first to comment