अमेरिकी फेडरल रिजर्व के चेयरमैन जेरोम पॉवेल के राष्ट्र को संबोधित करते समय हवा में तनाव व्याप्त था। उनके शब्दों में, एक शांत अंदाज में, एक जांच की बात थी, जो केंद्रीय बैंक की स्वायत्तता की नींव को चुनौती दे रही थी। लेकिन यह सिर्फ एक राजनीतिक नाटक नहीं था; यह कृत्रिम बुद्धिमत्ता, शासन और उस नाजुक भरोसे के बढ़ते अंतर्संबंध की एक स्पष्ट याद दिलाता था जो हमारी संस्थाओं को आधार देता है।
रिपोर्टों के अनुसार, ट्रम्प प्रशासन के तहत अमेरिकी अभियोजकों द्वारा शुरू की गई जांच, पॉवेल की फेडरल रिजर्व की नवीकरण परियोजनाओं के बारे में कांग्रेस की गवाही पर केंद्रित है। पॉवेल ने अपने वीडियो बयान में, जांच को फेड की स्वतंत्रता को कमजोर करने के लिए एक राजनीतिक रूप से प्रेरित प्रयास बताया, जो आर्थिक स्थिरता की आधारशिला है। लेकिन तत्काल राजनीतिक निहितार्थों से परे, यह घटना सार्वजनिक क्षेत्र में जानकारी का विश्लेषण, व्याख्या और संभावित रूप से हेरफेर करने में AI की भूमिका के बारे में गंभीर सवाल उठाती है।
इसकी संभावना पर विचार करें। वित्तीय रिकॉर्ड, कांग्रेस के ट्रांसक्रिप्ट और समाचार लेखों के विशाल डेटासेट पर प्रशिक्षित AI एल्गोरिदम, पॉवेल के बयानों में असंगतियों, वास्तविक या कथित, की पहचान करने के लिए तैनात किए जा सकते हैं। ये एल्गोरिदम, जो मानव क्षमता से कहीं अधिक गति से जानकारी संसाधित करने में सक्षम हैं, का उपयोग संदेह को बढ़ाने और सार्वजनिक अविश्वास को बढ़ावा देने के लिए किया जा सकता है। यह विज्ञान कथा नहीं है; यह एक ऐसी दुनिया की वास्तविकता है जहां AI का उपयोग सार्वजनिक राय को प्रभावित करने और संस्थानों को अस्थिर करने के लिए हथियार के रूप में किया जा सकता है।
"हमारे सामने चुनौती केवल जानकारी की सटीकता को सत्यापित करने के बारे में नहीं है," इंस्टीट्यूट फॉर द फ्यूचर में एक प्रमुख AI नैतिकतावादी डॉ. अन्या शर्मा बताती हैं। "यह जानकारी के पीछे के इरादे, इसे उत्पन्न करने के लिए उपयोग किए गए एल्गोरिदम और हेरफेर की संभावना को समझने के बारे में है। AI पारदर्शिता के लिए एक शक्तिशाली उपकरण हो सकता है, लेकिन यह धोखे के लिए भी एक शक्तिशाली उपकरण हो सकता है।"
पॉवेल की जांच "व्याख्या योग्य AI" की बढ़ती आवश्यकता पर प्रकाश डालती है, ऐसे एल्गोरिदम जो न केवल उत्तर प्रदान कर सकते हैं बल्कि यह भी बता सकते हैं कि वे उन उत्तरों पर कैसे पहुंचे। AI प्रणालियों में विश्वास बनाने और उनके दुरुपयोग को रोकने के लिए यह पारदर्शिता महत्वपूर्ण है। कल्पना कीजिए कि एक AI एल्गोरिदम पॉवेल की गवाही में एक विसंगति को चिह्नित कर रहा है। यदि एल्गोरिदम स्पष्ट रूप से उन डेटा बिंदुओं को बता सकता है जिनका उसने उपयोग किया, उसके निष्कर्ष के पीछे का तर्क और उसके डेटा में संभावित पूर्वाग्रह, तो यह जांच के लिए एक मूल्यवान उपकरण बन जाता है। यदि, हालांकि, एल्गोरिदम "ब्लैक बॉक्स" के रूप में काम करता है, तो उसके निष्कर्ष संदिग्ध हो जाते हैं, संभावित रूप से षड्यंत्र के सिद्धांतों को बढ़ावा देते हैं और सार्वजनिक विश्वास को कमजोर करते हैं।
इसके अलावा, जिस गति से AI जानकारी का प्रसार कर सकता है, सटीक और गलत दोनों, वह एक महत्वपूर्ण चुनौती प्रस्तुत करता है। डीपफेक, AI-जनित वीडियो जो वास्तविक लोगों की convincingly नकल करते हैं, का उपयोग मनगढ़ंत सबूत बनाने या पॉवेल के बयानों को विकृत करने के लिए किया जा सकता है। ऐसी गलत सूचनाओं के तेजी से प्रसार से अर्थव्यवस्था और फेड की विश्वसनीयता के लिए विनाशकारी परिणाम हो सकते हैं।
MIT में साइबर सुरक्षा विशेषज्ञ प्रोफेसर डेविड चेन का तर्क है, "हमें AI-जनित गलत सूचनाओं का पता लगाने और उनका मुकाबला करने के लिए मजबूत तंत्र विकसित करने की आवश्यकता है।" "इसमें AI-संचालित पहचान उपकरणों में निवेश करना, डीपफेक के जोखिमों के बारे में जनता को शिक्षित करना और ऐसी सामग्री बनाने और प्रसारित करने वालों को जवाबदेह ठहराना शामिल है।"
जेरोम पॉवेल की जांच, इसके अंतिम परिणाम की परवाह किए बिना, एक महत्वपूर्ण मोड़ के रूप में कार्य करती है। यह हमें शासन में AI के जटिल नैतिक और सामाजिक निहितार्थों और जिम्मेदार AI विकास और तैनाती की तत्काल आवश्यकता का सामना करने के लिए मजबूर करता है। जैसे-जैसे AI का विकास जारी है, इन शक्तिशाली तकनीकों को समझने, विनियमित करने और उन पर विश्वास करने की हमारी क्षमता हमारी संस्थाओं की अखंडता और हमारे समाज की स्थिरता की रक्षा के लिए आवश्यक होगी। शासन का भविष्य अच्छी तरह से इस नई AI-संचालित परिदृश्य को ज्ञान और दूरदर्शिता के साथ नेविगेट करने की हमारी क्षमता पर निर्भर हो सकता है।
Discussion
Join the conversation
Be the first to comment