طور باحثو Google تقنية ذكاء اصطناعي جديدة، وهي التعلم المعزز الداخلي (internal RL)، والتي يمكن أن تحدث ثورة في وكلاء الذكاء الاصطناعي ذوي الأفق الطويل. يعالج هذا الاختراق، الذي أُعلن عنه في 16 يناير 2026، القيود المفروضة على كيفية تعلم نماذج اللغة الكبيرة (LLMs) للاستدلال المعقد. يوجه التعلم المعزز الداخلي العمليات الداخلية للنموذج نحو حل المشكلات خطوة بخطوة، بدلاً من الاعتماد على التنبؤ بالرمز المميز التالي.
غالبًا ما تؤدي الطريقة الحالية لتدريب نماذج اللغة الكبيرة إلى الهلوسة والفشل في المهام المعقدة. يعد التعلم المعزز أمرًا بالغ الأهمية لمرحلة ما بعد التدريب، ولكن الطبيعة الانحدارية الذاتية لنماذج اللغة الكبيرة تحد من الاستكشاف. يقدم التعلم المعزز الداخلي حلاً محتملاً عن طريق توجيه التنشيطات الداخلية للنموذج.
يمكن أن يمهد هذا الابتكار الطريق لوكلاء مستقلين قادرين على التعامل مع الاستدلال المعقد والروبوتات في العالم الحقيقي. الفائدة الرئيسية هي تقليل الحاجة إلى الرقابة البشرية المستمرة. يمثل هذا التطور خطوة مهمة نحو أنظمة ذكاء اصطناعي أكثر قدرة واستقلالية.
تولد نماذج اللغة الكبيرة تقليديًا تسلسلات رمز مميز واحد في كل مرة، مما يجعل من الصعب استكشاف استراتيجيات متنوعة. تتضمن الخطوات التالية اختبار وتوسيع نطاق التعلم المعزز الداخلي لمختلف التطبيقات. يتوقع مجتمع الذكاء الاصطناعي المزيد من الأبحاث وعمليات النشر في العالم الحقيقي.
Discussion
Join the conversation
Be the first to comment