أصدر معهد الابتكار التكنولوجي (TII) في أبو ظبي نموذج فالكون H1R 7B، وهو نموذج لغوي بـ 7 مليارات معلمة، تدعي المنظمة أنه ينافس ويتفوق على النماذج التي تقارب سبعة أضعاف حجمه في مهام الاستدلال. يتحدى النموذج الاتجاه السائد في تطوير الذكاء الاصطناعي التوليدي، والذي ركز إلى حد كبير على توسيع حجم النموذج لتحسين قدرات الاستدلال.
وفقًا لمعهد الابتكار التكنولوجي، يحقق فالكون H1R 7B هذا الأداء من خلال استخدام بنية هجينة، مبتعدًا عن بنية Transformer الخالصة التي أصبحت معيارًا في هذا المجال. يسمح هذا التحول المعماري للنموذج الأصغر بالتنافس مع، بل وتجاوز، أداء النماذج الأكبر حجمًا مثل Qwen (32B) من Alibaba و Nemotron (47B) من Nvidia في الاستنتاج المنطقي المعقد والإثباتات الرياضية.
يُنظر إلى إصدار فالكون H1R 7B على أنه تطور مهم لمجتمع الذكاء الاصطناعي مفتوح الوزن. يشير إلى أن الابتكار المعماري وتوسيع نطاق الاستدلال في وقت الاستنتاج أصبحا من العوامل ذات الأهمية المتزايدة، مما يحول التركيز بعيدًا عن مجرد زيادة عدد المعلمات في النموذج. يتوفر رمز النموذج الكامل على Hugging Face، ويمكن للأفراد اختبار النموذج من خلال عرض استنتاجي مباشر على Falcon Chat، وهي منصة روبوت محادثة.
على مدى العامين الماضيين، عمل مجال الذكاء الاصطناعي التوليدي إلى حد كبير على افتراض أن النماذج الأكبر حجمًا تعادل استدلالًا أفضل. في حين أظهرت النماذج الأصغر (أقل من 10 مليارات معلمة) قدرات محادثة، إلا أنها غالبًا ما واجهت صعوبات في مهام الاستدلال الأكثر تعقيدًا. يتحدى فالكون H1R 7B التابع لمعهد الابتكار التكنولوجي هذا الافتراض من خلال إظهار أن نموذجًا أصغر وأكثر كفاءة في التصميم يمكن أن يحقق أداءً مماثلاً أو متفوقًا.
قد تكون الآثار المترتبة على هذا التطور بعيدة المدى. إذا كانت النماذج الأصغر قادرة على تحقيق أداء مماثل للنماذج الأكبر حجمًا، فقد يقلل ذلك من الموارد الحسابية المطلوبة لتدريب ونشر أنظمة الذكاء الاصطناعي، مما يجعلها أكثر سهولة واستدامة. يمثل إصدار فالكون H1R 7B نقطة تحول محتملة في تطوير الذكاء الاصطناعي التوليدي، مما يشير إلى أن الابتكار في الهندسة المعمارية والكفاءة قد يكون بنفس أهمية توسيع حجم النموذج.
Discussion
Join the conversation
Be the first to comment