يقدم MiroThinker 1.5 من MiroMind، وهو نموذج استدلالي جديد يحتوي على 30 مليار معلمة، قدرات بحثية ذاتية تضاهي النماذج التي تحتوي على تريليونات المعلمات مثل Kimi K2 و DeepSeek، ولكن بتكلفة استدلالية أقل بكثير. يمثل إصدار MiroThinker 1.5 خطوة نحو وكلاء الذكاء الاصطناعي الأكثر كفاءة وقابلية للنشر، مما يعالج التحدي الذي تواجهه المؤسسات عند الاختيار بين مكالمات واجهة برمجة التطبيقات (API) المكلفة للنماذج الرائدة وقيود الأداء المحلي.
وفقًا لمقال VentureBeat نُشر في 8 يناير 2026، يوفر MiroThinker 1.5 بديلاً: نماذج مفتوحة الوزن مصممة خصيصًا للاستخدام الموسع للأدوات والاستدلال متعدد الخطوات. سلط سام ويتفين، مؤلف المقال، الضوء على أن النموذج يمثل منافسًا جادًا مفتوح الوزن في الاتجاه نحو وكلاء الذكاء الاصطناعي المعممين، وهي قدرة كانت تقتصر سابقًا على النماذج الاحتكارية.
يأتي تطوير MiroThinker 1.5 في وقت يشهد فيه قطاع الذكاء الاصطناعي تحولًا من الوكلاء المتخصصين للغاية إلى الوكلاء الأكثر تعميمًا. تتطلب نماذج اللغة الكبيرة (LLMs) تقليديًا مئات المليارات أو حتى تريليونات المعلمات لتحقيق قدرات استدلالية متقدمة. يتحدى MiroThinker 1.5 هذا النموذج من خلال إظهار أنه يمكن تحقيق بحث ذاتي قوي بحجم نموذج أصغر بكثير.
إن الآثار المترتبة على هذا التطور بعيدة المدى. من خلال تقليل التكلفة الحسابية المرتبطة بالاستدلال المتقدم للذكاء الاصطناعي، يمكن أن يجعل MiroThinker 1.5 هذه القدرات في متناول مجموعة واسعة من المؤسسات والأفراد. يمكن أن يؤدي ذلك إلى زيادة الابتكار واعتماد وكلاء الذكاء الاصطناعي في مختلف المجالات، من البحث العلمي إلى خدمة العملاء.
إن الطبيعة مفتوحة الوزن لـ MiroThinker 1.5 مهمة أيضًا. تسمح النماذج مفتوحة الوزن بمزيد من الشفافية والتعاون داخل مجتمع الذكاء الاصطناعي، مما يعزز المزيد من التطوير والتحسين. يتناقض هذا مع النماذج الاحتكارية، حيث يتم تقييد الوصول والتعديل.
من المتوقع أن تصدر MiroMind مزيدًا من التفاصيل حول MiroThinker 1.5، بما في ذلك بنيته المحددة وبيانات التدريب الخاصة به، في الأسابيع المقبلة. تخطط الشركة أيضًا لنشر أوراق بحثية تفصل أداء النموذج على معايير مختلفة. سيراقب مجتمع الذكاء الاصطناعي عن كثب لمعرفة كيفية أداء MiroThinker 1.5 في التطبيقات الواقعية وكيف يساهم في التطور المستمر لوكلاء الذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment