يشكل نموذج Qwen 3.5 الجديد من علي بابا تحديًا لمشهد الذكاء الاصطناعي للمؤسسات، حيث يتفاخر بتحقيق انتصارات في المعايير القياسية على نموذجه الرئيسي، بينما يعمل بتكلفة أقل بكثير، وفقًا لـ VentureBeat. يمثل هذا الإصدار، الذي تزامن مع حلول العام القمري الجديد، لحظة مهمة لقادة تكنولوجيا المعلومات الذين يقومون بتقييم البنية التحتية للذكاء الاصطناعي لعام 2026. في الوقت نفسه، أطلقت Anthropic نموذج Claude Sonnet 4.6، الذي يوفر ذكاءً قريبًا من المستوى الرئيسي بتكلفة متوسطة، وتدعو Google DeepMind إلى زيادة التدقيق في السلوك الأخلاقي لنماذج اللغات الكبيرة.
يدعي Qwen 3.5، الذي يضم 397 مليار معلمة إجمالية ولكنه ينشط 17 مليار فقط لكل رمز، تحقيق انتصارات في المعايير القياسية على نموذج علي بابا الرئيسي السابق، Qwen3-Max، وهو نموذج اعترفت الشركة بأنه تجاوز تريليون معلمة واحدة، حسبما ذكرت VentureBeat. يمثل هذا حجة مقنعة لمشتري الذكاء الاصطناعي من المؤسسات، مما يشير إلى أن النموذج الذي يمكنهم تشغيله وامتلاكه والتحكم فيه يمكنه الآن التنافس مع الخيارات الأكثر تكلفة.
تم تصميم Claude Sonnet 4.6 من Anthropic، الذي تم إصداره يوم الثلاثاء، لتسريع اعتماد المؤسسات من خلال توفير ذكاء قريب من المستوى الرئيسي بتكلفة متوسطة. يتميز النموذج بنافذة سياق تبلغ مليون رمز في الإصدار التجريبي وهو الآن النموذج الافتراضي في claude.ai و Claude Cowork. تظل الأسعار ثابتة عند 315 دولارًا لكل مليون رمز، وهو نفس سعر سلفه، Sonnet 4.5، وفقًا لـ VentureBeat. صرحت VentureBeat: "إنه يوفر ذكاءً قريبًا من المستوى الرئيسي بتكلفة متوسطة، ويقع مباشرة في منتصف اندفاع الشركات غير المسبوق لنشر وكلاء الذكاء الاصطناعي وأدوات الترميز الآلية".
تأتي هذه التطورات في الوقت الذي تواجه فيه الصناعة تعقيدات نشر الذكاء الاصطناعي في المجالات عالية المخاطر. على سبيل المثال، تطورت LexisNexis إلى ما هو أبعد من الجيل المعزز بالاسترجاع القياسي (RAG) إلى رسومات RAG والرسومات الوكيلة لمعالجة الحاجة إلى الدقة والملاءمة والسلطة ودقة الاستشهاد، كما ورد في VentureBeat. وفقًا لـ VentureBeat: "لا يوجد شيء اسمه ذكاء اصطناعي مثالي لأنك لا تحصل أبدًا على دقة 100٪ أو ملاءمة 100٪، خاصة في المجالات المعقدة وعالية المخاطر مثل المجال القانوني".
في غضون ذلك، تدعو Google DeepMind إلى زيادة التدقيق في السلوك الأخلاقي لنماذج اللغات الكبيرة. نظرًا لأن نماذج اللغات الكبيرة تتحسن وتتولى أدوارًا أكثر حساسية، مثل الرفقاء والمعالجين والمستشارين الطبيين، تريد Google DeepMind التأكد من أن التكنولوجيا جديرة بالثقة. قال ويليام إسحاق، الباحث العلمي في Google DeepMind، لمجلة MIT Technology Review: "مع الترميز والرياضيات، لديك إجابات واضحة وصحيحة يمكنك التحقق منها".
AI Experts & Community
Be the first to comment