गूगल रिसर्च ने एलएलएम (LLM) की सटीकता बढ़ाने के लिए एक आश्चर्यजनक रूप से सरल तकनीक का खुलासा किया: प्रॉम्प्ट पुनरावृत्ति। इनपुट क्वेरी को ज्यों का त्यों दोहराने से जटिल तर्क की आवश्यकता वाले कार्यों पर प्रदर्शन में 76% तक सुधार हुआ। "प्रॉम्प्ट रिपिटेशन इम्प्रूव्स नॉन-रीज़निंग एलएलएमस (Prompt Repetition Improves Non-Reasoning LLMs)" नामक पेपर पिछले महीने जारी किया गया था।
शोधकर्ताओं ने जेमिनी (Gemini), जीपीटी-4ओ (GPT-4o), क्लाउड (Claude), और डीपसीक (DeepSeek) जैसे प्रमुख मॉडलों पर इस विधि का परीक्षण किया। अध्ययन में सभी मॉडलों में लगातार सुधार पाया गया। यह तेजी से जटिल प्रॉम्प्टिंग रणनीतियों की प्रवृत्ति को चुनौती देता है।
इसका तत्काल प्रभाव एआई (AI) वर्कफ़्लो का सरलीकरण हो सकता है। इंजीनियर कम प्रयास में बेहतर परिणाम प्राप्त करने में सक्षम हो सकते हैं। एआई समुदाय पहले से ही इस खोज के निहितार्थों पर चर्चा कर रहा है।
वर्षों से, एआई इंजीनियरों ने जटिल प्रॉम्प्टिंग विधियों का विकास किया। इनमें "चेन ऑफ थॉट (Chain of Thought)" और मल्टी-शॉट प्रॉम्प्टिंग फ्रेमवर्क शामिल थे। यह नया शोध सरल विधियों पर लौटने का सुझाव देता है।
भविष्य के शोध में प्रॉम्प्ट पुनरावृत्ति की सीमाओं का पता लगाया जाएगा। वैज्ञानिक अधिक जटिल कार्यों पर इसकी प्रभावशीलता की जांच करेंगे। निष्कर्ष एआई के साथ हमारे संवाद करने के तरीके को नया आकार दे सकते हैं।
Discussion
Join the conversation
Be the first to comment