باحثو جوجل ربما يكونون قد حلوا تحديًا رئيسيًا في مجال الذكاء الاصطناعي. تقنيتهم الجديدة، "التعلم المعزز الداخلي" (internal RL)، قد تفتح الباب أمام وكلاء الذكاء الاصطناعي ذوي الأفق الزمني الطويل. هذا الاختراق، الذي أُعلن عنه في 16 يناير 2026، يعالج القيود المفروضة على كيفية تعلم نماذج الذكاء الاصطناعي للاستدلال المعقد.
يوجه التعلم المعزز الداخلي العمليات الداخلية للنموذج. إنه يرشد الذكاء الاصطناعي نحو حلول خطوة بخطوة. هذا يتجاوز الطريقة التقليدية للتنبؤ بالرمز التالي. غالبًا ما تؤدي هذه الطريقة إلى "هلوسات" وإخفاقات الذكاء الاصطناعي.
قد يكون التأثير المباشر هائلاً. يعتقد الخبراء أن هذا يوفر طريقًا إلى الوكلاء المستقلين. يمكن لهؤلاء الوكلاء التعامل مع المهام المعقدة والروبوتات في العالم الحقيقي. ستكون هناك حاجة إلى توجيه بشري أقل.
نماذج اللغات الكبيرة (LLMs) الحالية ذاتية الانحدار. إنها تولد تسلسلات رمزًا تلو الآخر. هذا يجعل من الصعب استكشاف استراتيجيات جديدة. يقدم التعلم المعزز الداخلي حلاً محتملاً.
تتضمن الخطوات التالية توسيع نطاق التقنية واختبارها. ينصب التركيز على التطبيقات الواقعية. يراقب مجتمع الذكاء الاصطناعي عن كثب. هذا يمكن أن يحدث ثورة في تطوير الذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment