كشفت Google Research عن تقنية بسيطة ومدهشة لتعزيز دقة نماذج اللغات الكبيرة (LLM). يمكن لتكرار الإدخال الأولي أن يزيد الأداء بنسبة تصل إلى 76٪. وقد فصلت الورقة البحثية، التي صدرت الشهر الماضي، النتائج.
اكتشف الباحثون أن مضاعفة المطالبات حسّن بشكل كبير النتائج في المهام التي لا تتطلب تفكيرًا معقدًا. تعمل هذه الطريقة عبر النماذج الرئيسية مثل Gemini و GPT-4o و Claude و DeepSeek. تتحدى الدراسة استراتيجيات المطالبات المعقدة التي تم تطويرها على مدى السنوات القليلة الماضية.
التأثير المباشر هو تبسيط محتمل لتحسين الذكاء الاصطناعي. قد يتمكن المهندسون من تحقيق نتائج أفضل باستخدام طرق أقل تعقيدًا. يقيّم مجتمع الذكاء الاصطناعي الآن الآثار المترتبة على هذا الاكتشاف.
في السابق، كانت تعتبر الطرق المعقدة مثل "سلسلة الأفكار" والمطالبات متعددة اللقطات ضرورية. يشير هذا البحث الجديد إلى أن اتباع نهج أكثر وضوحًا قد يكون كافيًا للعديد من المهام.
ستستكشف الأبحاث الإضافية حدود تكرار المطالبات. قد تبحث الدراسات المستقبلية في فعاليتها في مهام التفكير الأكثر تعقيدًا. يمكن أن تعيد النتائج تشكيل استراتيجيات تطوير نماذج اللغات الكبيرة (LLM).
Discussion
Join the conversation
Be the first to comment