2024 के न्यूरिप्स (NeurIPS) सम्मेलन में हवा प्रत्याशा से भरी हुई थी। शोधकर्ता, वेंचर कैपिटलिस्ट और विस्मय से भरे छात्र लगभग-मानव AI का वादा करने वाले डेमो के आसपास घूम रहे थे। आर्टिफिशियल जनरल इंटेलिजेंस (AGI) का सपना, एक ऐसी मशीन जो मनुष्य की तरह ज्ञान को समझने, सीखने और लागू करने में सक्षम हो, लुभावना रूप से करीब महसूस हो रहा था। 2025 के अंत तक, माहौल निश्चित रूप से अलग है। शैम्पेन के सपने वाष्पित हो गए हैं, और उनकी जगह एक गंभीर अहसास ने ले ली है: AGI, जैसा कि इसे बेचा गया था, मील के पत्थर से ज्यादा मृगतृष्णा हो सकता है।
विल डगलस हेवन की एक नई सब्सक्राइबर-ओनली ईबुक, "हाउ एजीआई बिकेम ए कॉन्सिक्वेंशियल कॉन्सपिरेसी थ्योरी" (How AGI Became a Consequential Conspiracy Theory), इस बदलाव की पड़ताल करती है, यह बताती है कि कैसे AGI का पीछा, जो कभी एक वैध वैज्ञानिक लक्ष्य था, एक स्व-सेवा करने वाली भविष्यवाणी में बदल गया जिसने पूरे उद्योग को हाईजैक कर लिया। यह ईबुक, जो विशेष रूप से सब्सक्राइबरों के लिए उपलब्ध है, "AGI-पिल्ड" (AGI-pilled) घटना का विश्लेषण करती है जिसने सिलिकॉन वैली में तहलका मचा दिया, इसके मूल, इसके परिणामों और स्थायी क्षति की इसकी क्षमता की जांच करती है।
कहानी केवल तकनीकी अतिरेक के बारे में नहीं है; यह मानवीय महत्वाकांक्षा, आसान समाधानों के आकर्षण और अनियंत्रित प्रचार के खतरों के बारे में है। यह कहानी डीप लर्निंग के शुरुआती दिनों से शुरू होती है, जब इमेज रिकॉग्निशन और नेचुरल लैंग्वेज प्रोसेसिंग में प्रभावशाली प्रगति ने इस विश्वास को बढ़ावा दिया कि AGI बस आने ही वाला है। कंपनियों ने, निवेश और प्रतिभा को आकर्षित करने के लिए उत्सुक होकर, अपने AI सिस्टम को लगभग-मानव क्षमताओं के रूप में आक्रामक रूप से विपणन करना शुरू कर दिया, जिससे संकीर्ण AI, जो विशिष्ट कार्यों के लिए डिज़ाइन किया गया है, और मायावी AGI के बीच की रेखाएँ धुंधली हो गईं।
यह "AGI षड्यंत्र," जैसा कि ईबुक इसे कहती है, जरूरी नहीं कि दुर्भावना का जानबूझकर किया गया कार्य था। इसके बजाय, यह कारकों का एक संगम था: नवाचार करने का दबाव, पीछे रह जाने का डर, और कुछ लोगों के बीच यह वास्तविक विश्वास कि AGI अपरिहार्य था। वेंचर कैपिटलिस्टों ने AI स्टार्टअप में अरबों का निवेश किया, अक्सर अंतर्निहित विज्ञान पर बहुत कम ध्यान दिया। शोधकर्ताओं, जिन्हें फंडिंग और प्रतिष्ठा से प्रोत्साहन मिला, उन्होंने अपनी प्रगति के बारे में तेजी से असाधारण दावे किए। मीडिया, एक तकनीकी यूटोपिया के वादे से मोहित होकर, प्रचार को बढ़ा-चढ़ाकर पेश करता रहा।
इसके परिणाम दूरगामी रहे हैं। ईबुक का तर्क है कि AGI कथा ने AI परिदृश्य को विकृत कर दिया है, जिससे अधिक व्यावहारिक और लाभकारी अनुप्रयोगों से संसाधन हट गए हैं। इसने जनता के बीच अवास्तविक उम्मीदों को भी बढ़ावा दिया है, जिससे निराशा और अविश्वास पैदा हुआ है जब AI सिस्टम प्रचार पर खरा उतरने में विफल रहे हैं।
ईबुक में हेवन कहते हैं, "हमने पहले भी यह पैटर्न देखा है।" "डॉट-कॉम बबल, क्लीन एनर्जी बबल - AGI बबल सिर्फ इस बात का नवीनतम उदाहरण है कि कैसे प्रचार तकनीकी विकास को विकृत कर सकता है।"
ईबुक AGI कथा के नैतिक निहितार्थों पर भी प्रकाश डालती है। AI को मानव बुद्धि के संभावित प्रतिस्थापन के रूप में चित्रित करके, यह मानव कौशल को कम आंकने और अस्तित्वगत खतरे की भावना पैदा करने का जोखिम उठाता है। इससे बदले में, नौकरी विस्थापन और काम के भविष्य के बारे में चिंताएं बढ़ सकती हैं।
ईबुक आसान जवाब नहीं देती है, लेकिन यह AI की वर्तमान स्थिति को समझने के लिए एक मूल्यवान ढांचा प्रदान करती है। यह पाठकों से AI कंपनियों और शोधकर्ताओं द्वारा किए गए दावों के प्रति आलोचनात्मक होने, पारदर्शिता और जवाबदेही की मांग करने और ऐसे AI सिस्टम विकसित करने पर ध्यान केंद्रित करने का आग्रह करता है जो लाभकारी और नैतिक दोनों हों।
जैसा कि ईबुक का निष्कर्ष है, महान AGI षड्यंत्र समाप्त हो सकता है, लेकिन इसकी विरासत आने वाले वर्षों तक AI परिदृश्य को आकार देना जारी रखेगी। अब चुनौती है कि अतीत की गलतियों से सीखा जाए और एक ऐसा भविष्य बनाया जाए जहां AI मानवता की सेवा करे, न कि इसके विपरीत। "2025 का AI हाइप करेक्शन," जैसा कि हेवन ने एक संबंधित लेख में कहा है, दर्दनाक हो सकता है, लेकिन यह उम्मीदों को रीसेट करने और कृत्रिम बुद्धिमत्ता की अधिक यथार्थवादी और जिम्मेदार दृष्टि का अनुसरण करने का भी एक अवसर है।
Discussion
Join the conversation
Be the first to comment