डिजिटल दुनिया पाठ से भरी पड़ी है, और यह बताना मुश्किल होता जा रहा है कि क्या मानवीय है और क्या मशीनी। लेकिन विकिपीडिया संपादकों का एक समूह, जो शुरू में ऑनलाइन विश्वकोश पर AI-जनित लेखों को साफ़ करने पर केंद्रित था, अनजाने में AI को और अधिक, मानवीय बनाने की खोज में एक नई हथियारों की दौड़ शुरू कर सकता है।
2023 के अंत से, WikiProject AI Cleanup के स्वयंसेवक AI द्वारा लिखे गए संदिग्ध लेखों को सावधानीपूर्वक टैग करते हुए, शिकार पर हैं। फ्रांसीसी विकिपीडिया संपादक इलियास लेब्लू द्वारा स्थापित, परियोजना ने समीक्षा के लिए 500 से अधिक लेखों की पहचान की है। उनका काम अगस्त 2025 में AI लेखन के बताने वाले संकेतों की एक औपचारिक सूची के साथ समाप्त हुआ - भाषा और फ़ॉर्मेटिंग में ऐसे पैटर्न जो गैर-मानवीय मूल को धोखा देते हैं।
अब, उस सूची को एक अप्रत्याशित दूसरा जीवन मिला है। टेक उद्यमी सिक़ी चेन ने एंथ्रोपिक के क्लाउड कोड AI सहायक के लिए "ह्यूमनाइज़र" नामक एक ओपन-सोर्स प्लग-इन जारी किया है। यह सरल लेकिन सरल उपकरण क्लाउड को विकिपीडिया संपादकों की सूची खिलाता है, अनिवार्य रूप से AI को निर्देश देता है: "इस तरह मत लिखो।" चेन ने प्लग-इन को GitHub पर प्रकाशित किया, जहाँ इसने तेज़ी से लोकप्रियता हासिल की है, सोमवार तक 1,600 से अधिक स्टार जमा किए हैं।
चेन ने X पर लिखा, "यह वास्तव में काम का है कि विकिपीडिया ने AI लेखन के संकेतों की एक विस्तृत सूची तैयार की।" "इतना कि आप बस अपने LLM को ऐसा न करने के लिए कह सकते हैं।"
इसके निहितार्थ महत्वपूर्ण हैं। क्लाउड जैसे बड़े भाषा मॉडल (LLM) पाठ के विशाल डेटासेट पर प्रशिक्षित होते हैं, जो मानव लेखन शैलियों की नकल करना सीखते हैं। हालाँकि, वे अक्सर अनुमानित पैटर्न प्रदर्शित करते हैं: अत्यधिक औपचारिक भाषा, दोहराव वाली वाक्य संरचनाएँ और अनावश्यक परिचयात्मक वाक्यांशों को शामिल करने की प्रवृत्ति। ये ठीक उसी तरह की विचित्रताएँ हैं जिन्हें WikiProject AI Cleanup ने पहचाना है।
ह्यूमनाइज़र, अनिवार्य रूप से क्लाउड कोड के लिए एक कौशल फ़ाइल, लिखित निर्देशों की एक सूची जोड़ने के लिए Markdown-स्वरूपित फ़ाइल का उपयोग करता है। सक्रिय रूप से इन पैटर्नों से बचने से, प्लग-इन का उद्देश्य AI-जनित पाठ को कम पता लगाने योग्य बनाना है।
यह विकास सामग्री निर्माण के भविष्य और AI द्वारा धोखा देने की क्षमता के बारे में महत्वपूर्ण प्रश्न उठाता है। जैसे-जैसे AI मॉडल मानव लेखन की नकल करने में अधिक परिष्कृत होते जाते हैं, प्रामाणिक और कृत्रिम सामग्री के बीच अंतर करना तेजी से चुनौतीपूर्ण होता जाता है। इसके पत्रकारिता और शैक्षणिक अनुसंधान से लेकर ऑनलाइन समीक्षाओं और सोशल मीडिया तक हर चीज के लिए निहितार्थ हैं।
WikiProject AI Cleanup के प्रयास AI के युग में मानव निरीक्षण के महत्व पर प्रकाश डालते हैं। उनका काम न केवल विकिपीडिया की अखंडता को बनाए रखने में मदद करता है बल्कि AI-जनित पाठ की विशेषताओं में भी बहुमूल्य अंतर्दृष्टि प्रदान करता है। हालाँकि, ह्यूमनाइज़र जैसे उपकरणों का तेजी से विकास बताता है कि AI डिटेक्टरों और AI "ह्यूमनाइज़र" के बीच चूहे-बिल्ली का खेल अभी शुरू हुआ है।
इस हथियारों की दौड़ के दीर्घकालिक परिणाम अनिश्चित हैं। क्या AI अंततः मानव लेखन से अप्रभेद्य हो जाएगा? या क्या विकसित हो रही तकनीक के साथ तालमेल रखने के लिए पता लगाने के नए तरीके सामने आएंगे? एक बात स्पष्ट है: जानकारी की प्रामाणिकता का गंभीर रूप से मूल्यांकन और सत्यापन करने की क्षमता पहले से कहीं अधिक महत्वपूर्ण होगी।
Discussion
Join the conversation
Be the first to comment