गूगल रिसर्च ने एक आश्चर्यजनक रूप से सरल तकनीक का खुलासा किया है जो LLM की सटीकता को नाटकीय रूप से बढ़ाती है। इनपुट क्वेरी को दोहराने से प्रदर्शन में 76% तक सुधार हो सकता है। पिछले महीने जारी किए गए पेपर में जटिल प्रॉम्प्टिंग विधियों को चुनौती दी गई है।
शोधकर्ताओं ने पाया कि जटिल तर्क की आवश्यकता वाले कार्यों के लिए प्रॉम्प्ट को दोहराने से परिणाम बेहतर होते हैं। यह तकनीक जेमिनी, GPT-4o, क्लाउड और डीपसीक जैसे प्रमुख मॉडलों में काम करती है। कार्ल फ्रेंजेन ने 13 जनवरी, 2026 को वेंचरबीट पर निष्कर्षों की सूचना दी।
इस खोज से AI विकास को सरल बनाया जा सकता है और जटिल प्रॉम्प्टिंग रणनीतियों पर निर्भरता कम हो सकती है। प्रारंभिक प्रतिक्रियाओं से कार्यान्वयन में आसानी के कारण व्यापक रूप से अपनाने का सुझाव मिलता है। AI समुदाय अब तकनीक की सीमाओं और संभावित अनुप्रयोगों का मूल्यांकन कर रहा है।
सालों से, इंजीनियर तेजी से जटिल प्रॉम्प्टिंग विधियों का विकास कर रहे हैं। "चेन ऑफ थॉट" और "इमोशनल ब्लैकमेल" जैसी तकनीकों का उद्देश्य LLM प्रतिक्रियाओं को बेहतर बनाना था। यह नया शोध बताता है कि एक अधिक सीधा दृष्टिकोण समान रूप से, यदि अधिक नहीं, तो प्रभावी हो सकता है।
भविष्य के शोध में संभवतः इस घटना के पीछे के अंतर्निहित तंत्रों का पता लगाया जाएगा। वैज्ञानिक कार्यों और मॉडलों की एक विस्तृत श्रृंखला में इसकी प्रभावशीलता की भी जांच करेंगे। अब ध्यान इस बात पर है कि इतनी सरल विधि इतने महत्वपूर्ण सुधार क्यों देती है।
Discussion
Join the conversation
Be the first to comment