كشفت Google Research عن تقنية بسيطة بشكل مفاجئ لتعزيز دقة نماذج اللغات الكبيرة (LLM). يمكن لتكرار الإدخال الأولي تحسين الأداء بنسبة تصل إلى 76٪. تتحدى النتائج، التي نُشرت الشهر الماضي، طرق التحفيز المعقدة.
اختبر الباحثون التقنية على Gemini و GPT-4o و Claude و DeepSeek. اكتشفوا أن تكرار التحفيز حسّن النتائج بشكل كبير للمهام غير المنطقية. تم إصدار الورقة البحثية، بعنوان "Prompt Repetition Improves Non-Reasoning LLMs" (تكرار التحفيز يحسن نماذج اللغات الكبيرة غير المنطقية)، قبل العطلات مباشرة.
يمكن للاكتشاف تبسيط تطوير الذكاء الاصطناعي وتقليل التكاليف الحسابية. يقوم الخبراء الآن بتقييم الآثار المترتبة على التطبيقات المختلفة. يناقش مجتمع الذكاء الاصطناعي بنشاط نتائج الورقة البحثية.
لسنوات، طور المهندسون استراتيجيات تحفيز معقدة. وشملت هذه "سلسلة الأفكار" و "الابتزاز العاطفي". يشير البحث الجديد إلى أن اتباع نهج أكثر مباشرة قد يكون أكثر فعالية في بعض الحالات.
ستستكشف الأبحاث المستقبلية حدود تكرار التحفيز. يهدف العلماء إلى فهم سبب نجاح هذه الطريقة البسيطة بشكل جيد. ينصب التركيز على تحسين نماذج اللغات الكبيرة (LLM) لتطبيقات أوسع.
Discussion
Join the conversation
Be the first to comment