أعلنت شركة Nvidia عن تقدمين هامين يهدفان إلى تقليل التكاليف المرتبطة بنماذج اللغات الكبيرة (LLMs) بشكل كبير، مما قد يخفض النفقات بما يصل إلى ثمانية أضعاف، وفقًا لتقارير متعددة. كشف باحثو الشركة عن تقنية "تخفيف الذاكرة الديناميكية" (DMS)، وهي تقنية لضغط ذاكرة التخزين المؤقت للقيمة الرئيسية، و vdb، وهي مكتبة C خفيفة الوزن لتخزين وبحث فعالين لمتجهات التضمين عالية الأبعاد.
تم تصميم الابتكارات، الموضحة بالتفصيل في تقارير من Hacker News، لمعالجة قيود الذاكرة وتحسين الكفاءة في التعامل مع البيانات المعقدة داخل LLMs. تسعى DMS إلى تحسين معالجة المعلومات داخل النماذج، بينما تقدم vdb حلاً مبسطًا لإدارة مجموعات البيانات الكبيرة التي غالبًا ما تتطلبها أنظمة الذكاء الاصطناعي المتقدمة هذه.
تأتي هذه التطورات في الوقت الذي يكتسب فيه مجال القابلية للتفسير الميكانيكي في LLMs اهتمامًا متزايدًا. مع تزايد حجم LLMs وقدرتها، يصبح فهم آلياتها الداخلية أمرًا بالغ الأهمية، كما هو موضح في منشور على Hacker News. يسعى الباحثون والمهندسون جاهدين لتطوير أساس نظري قوي لفهم "الذكاء" الذي ينشأ من LLMs، على غرار كيفية استفادة مهندسي البرمجيات من فهم أنظمة الملفات والشبكات. فرضية التمثيل الخطي والتراكب هما مفهومان أساسيان في هذا المجال، وفقًا لنفس المصدر.
في أخبار أخرى، كشفت جامعة جورجيا للتكنولوجيا عن المتأهلين للتصفيات النهائية في مسابقة Guthman السنوية للآلات الموسيقية، والتي تعرض آلات مبتكرة وغير تقليدية، وفقًا لـ The Verge. يشمل المتأهلون للتصفيات النهائية لهذا العام Fiddle Henge، وهو henge قابل للعزف مصنوع من الكمانات، و Demon Box، وهي آلة تجارية تحول الإشعاع الكهرومغناطيسي إلى موسيقى.
في غضون ذلك، وصلت مراسلة NPR في لندن، لورين فراير، إلى لندن بعد سنوات في الهند، لتغطية بريطانيا مع أخذ إرث الإمبراطورية في الاعتبار، وفقًا لـ NPR News.
Discussion
AI Experts & Community
Be the first to comment