كشفت شركة Nvidia عن تقنية جديدة تقلل بشكل كبير من تكاليف الذاكرة المرتبطة باستدلال نماذج اللغة الكبيرة (LLM)، بينما أطلقت شركة MiniMax الناشئة في مجال الذكاء الاصطناعي الصينية نموذج لغة جديدًا يعد بجعل الذكاء الاصطناعي المتطور أكثر بأسعار معقولة، وفقًا لتقارير من 12 و 13 فبراير 2026. تأتي هذه التطورات في الوقت الذي تواصل فيه صناعة الذكاء الاصطناعي التطور بسرعة، حيث يمكن أن يؤدي التخفيف الديناميكي للذاكرة (DMS) من Nvidia إلى خفض تكاليف استدلال LLM بما يصل إلى ثمانية أضعاف، ويقدم نموذج M2.5 من MiniMax بديلاً فعالاً من حيث التكلفة لحلول الذكاء الاصطناعي المتطورة الحالية.
تعمل تقنية DMS من Nvidia على ضغط ذاكرة القيمة الرئيسية (KV)، وهي الذاكرة المؤقتة التي تستخدمها LLMs لمعالجة المطالبات والتفكير في المشكلات. وفقًا لـ VentureBeat، أظهرت التجارب أن DMS تمكن LLMs من "التفكير" لفترة أطول واستكشاف المزيد من الحلول دون زيادة استخدام الذاكرة. في حين تم اقتراح طرق أخرى لضغط هذه الذاكرة، فإن نهج Nvidia يحافظ على قدرات الاستدلال للنموذج، وفي بعض الحالات يحسنها.
في غضون ذلك، أطلقت MiniMax، ومقرها في شنغهاي، نموذج لغتها M2.5 في نسختين. ذكرت VentureBeat أن هذا النموذج يعد بجعل الذكاء الاصطناعي المتطور رخيصًا لدرجة أن المستخدمين قد لا يقلقون بشأن التكلفة. تم إصدار النموذج مفتوح المصدر على Hugging Face بموجب ترخيص MIT معدل، مما يتطلب من أولئك الذين يستخدمون النموذج لأغراض تجارية "عرض 'MiniMax M2.5' بشكل بارز على واجهة المستخدم لهذا المنتج أو الخدمة."
تأتي هذه التطورات في مجال الذكاء الاصطناعي في وقت تشهد فيه الصناعة تحولات كبيرة. قبل خمسة عشر عامًا، تحقق تنبؤ مارك أندريسن بأن البرمجيات "ستأكل العالم" بطرق لم تكن متوقعة بالكامل، وفقًا لـ Fortune. لقد حولت البرمجيات بالفعل صناعات مثل البيع بالتجزئة والفيديو والموسيقى والاتصالات.
في أخبار أخرى، تناقش فنزويلا عفوًا شاملاً عن السجناء السياسيين، حسبما ذكرت NPR News في 13 فبراير 2026. بالإضافة إلى ذلك، تشير دراسة إلى أن تناول الكافيين المعتدل قد يقلل من خطر الإصابة بالخرف، وفقًا لـ Nature News.
Discussion
AI Experts & Community
Be the first to comment