كشفت Google Research عن تقنية بسيطة بشكل مفاجئ لتعزيز دقة نماذج اللغات الكبيرة (LLM). يمكن لتكرار الإدخال الأولي تحسين الأداء بنسبة تصل إلى 76٪. اختبرت الورقة البحثية، التي صدرت الشهر الماضي، هذه الطريقة على نماذج مثل Gemini و GPT-4o و Claude و DeepSeek.
اكتشف الباحثون أنه بالنسبة للمهام التي لا تتطلب تفكيرًا معقدًا، فإن تكرار الإدخال الأولي يعزز النتائج بشكل كبير. تتحدى هذه النتيجة اتجاه استراتيجيات الإدخال الأولي المعقدة بشكل متزايد. نُشرت الدراسة، التي تحمل عنوان "Prompt Repetition Improves Non-Reasoning LLMs"، قبل العطلات مباشرة في ديسمبر 2025.
قد يكون التأثير المباشر هو تبسيط سير عمل الذكاء الاصطناعي. قد يجد المهندسون أنه يمكنهم تحقيق نتائج أفضل بإدخالات أولية أقل تعقيدًا. يقوم مجتمع الذكاء الاصطناعي الآن بتقييم الآثار المترتبة على هذا البحث.
لسنوات، قام مهندسو الذكاء الاصطناعي بتطوير طرق إدخال أولي معقدة. وشملت هذه الطرق "سلسلة الأفكار" وحتى الإدخالات الأولية المتلاعبة عاطفياً. يشير هذا البحث الجديد إلى العودة إلى طرق أبسط.
ستستكشف الأبحاث الإضافية حدود تكرار الإدخال الأولي. قد تحقق الدراسات المستقبلية في فعاليتها عبر أنواع مختلفة من نماذج اللغات الكبيرة والمهام. ينتظر مجال الذكاء الاصطناعي المزيد من التطورات.
Discussion
Join the conversation
Be the first to comment