كشفت Google Research عن تقنية بسيطة بشكل مفاجئ لتعزيز دقة نماذج اللغات الكبيرة (LLM): تكرار المطالبة. أدى تكرار استعلام الإدخال حرفيًا إلى تحسين الأداء بنسبة تصل إلى 76٪ في المهام التي لا تتطلب تفكيرًا معقدًا. تم إصدار الورقة البحثية بعنوان "Prompt Repetition Improves Non-Reasoning LLMs" الشهر الماضي.
اختبر الباحثون الطريقة على نماذج رئيسية مثل Gemini و GPT-4o و Claude و DeepSeek. وجدت الدراسة تحسينات متسقة في جميع المجالات. يتحدى هذا الاتجاه المتمثل في استراتيجيات المطالبة المعقدة بشكل متزايد.
قد يكون التأثير الفوري هو تبسيط سير عمل الذكاء الاصطناعي. قد يتمكن المهندسون من تحقيق نتائج أفضل بجهد أقل. يناقش مجتمع الذكاء الاصطناعي بالفعل الآثار المترتبة على هذا الاكتشاف.
لسنوات، طور مهندسو الذكاء الاصطناعي طرقًا معقدة للمطالبة. وشملت هذه الأساليب أطر عمل "سلسلة الأفكار" والمطالبة متعددة اللقطات. يشير هذا البحث الجديد إلى العودة إلى طرق أبسط.
من المحتمل أن يستكشف البحث المستقبلي حدود تكرار المطالبة. سيتحقق العلماء من فعاليته في المهام الأكثر تعقيدًا. يمكن أن تعيد النتائج تشكيل كيفية تفاعلنا مع الذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment