गूगल रिसर्च ने एक आश्चर्यजनक रूप से सरल प्रॉम्प्ट तकनीक का खुलासा किया है जो LLM की सटीकता को नाटकीय रूप से बढ़ाती है। इनपुट क्वेरी को दोहराने से प्रदर्शन में 76% तक सुधार हो सकता है। पिछले महीने जारी किए गए पेपर ने जेमिनी, GPT-4o, क्लाउड और डीपसीक जैसे प्रमुख मॉडलों में इस विधि का परीक्षण किया।
शोधकर्ताओं ने पाया कि जटिल तर्क की आवश्यकता वाले कार्यों के लिए, प्रॉम्प्ट पुनरावृत्ति काफी बेहतर परिणाम देती है। यह खोज तेजी से जटिल प्रॉम्प्टिंग रणनीतियों की प्रवृत्ति को चुनौती देती है। इस तकनीक में शाब्दिक रूप से प्रॉम्प्ट को कॉपी और पेस्ट करना शामिल है, इसलिए यह दो बार दिखाई देता है।
तत्काल प्रभाव AI विकास को सरल बना सकता है और जटिल प्रॉम्प्टिंग विधियों पर निर्भरता को कम कर सकता है। शुरुआती प्रतिक्रियाएं इस तकनीक को अपनाने में व्यापक रुचि का सुझाव देती हैं। इससे अधिक कुशल और सटीक AI एप्लिकेशन बन सकते हैं।
सालों से, इंजीनियरों ने "चेन ऑफ थॉट" और मल्टी-शॉट प्रॉम्प्टिंग जैसी जटिल विधियां विकसित की हैं। यह नया शोध सरल दृष्टिकोण पर लौटने का सुझाव देता है। ध्यान जटिल मॉडल हेरफेर के बजाय इनपुट को अनुकूलित करने पर केंद्रित है।
भविष्य के शोध में प्रॉम्प्ट पुनरावृत्ति की सीमाओं और अधिक जटिल कार्यों के लिए इसकी प्रयोज्यता का पता लगाने की संभावना है। AI समुदाय यह देखने के लिए बारीकी से देखेगा कि यह सरल तकनीक LLM विकास को कैसे नया आकार देती है।
Discussion
Join the conversation
Be the first to comment