सरकार पर डीपफेक के बढ़ते खतरे से निपटने के लिए बनाए गए कानून के कार्यान्वयन में कथित तौर पर देरी करने के लिए आलोचना हो रही है, खासकर Grok AI जैसे उन्नत AI मॉडलों के उभरने के बाद। आरोप विधायी कार्रवाई की कथित धीमी गति पर केंद्रित हैं, जिससे चिंता बढ़ रही है कि मौजूदा कानूनी ढाँचे भ्रामक सामग्री बनाने में आधुनिक AI की परिष्कृत क्षमताओं को संबोधित करने के लिए अपर्याप्त हैं।
आलोचकों का तर्क है कि देरी से जनता गलत सूचना और हेरफेर के प्रति संवेदनशील हो जाती है, जिससे संस्थानों और लोकतांत्रिक प्रक्रियाओं में विश्वास कम हो सकता है। डीपफेक, जिन्हें सिंथेटिक मीडिया के रूप में परिभाषित किया गया है जिसमें किसी मौजूदा छवि या वीडियो में किसी व्यक्ति को किसी और की समानता से बदल दिया जाता है, तेजी से यथार्थवादी और पता लगाने में मुश्किल होते जा रहे हैं। xAI द्वारा विकसित Grok AI, AI तकनीक में एक महत्वपूर्ण प्रगति का प्रतिनिधित्व करता है, जो अत्यधिक убедительный पाठ और छवियों को उत्पन्न करने में सक्षम है, जिससे दुरुपयोग की संभावना और बढ़ जाती है।
AI नैतिकता और नीति की एक प्रमुख विशेषज्ञ लौरा क्रेस ने कहा, "सरकार की निष्क्रियता बेहद चिंताजनक है।" "हमें दुर्भावनापूर्ण डीपफेक के निर्माण और प्रसार को रोकने के लिए मजबूत कानूनी सुरक्षा उपायों की आवश्यकता है। हम जितनी देर करेंगे, गंभीर नुकसान का खतरा उतना ही अधिक होगा।"
यह बहस तेजी से विकसित हो रही AI तकनीकों को विनियमित करने की जटिल चुनौतियों पर प्रकाश डालती है। कानून निर्माता व्यक्तिगत अधिकारों और सामाजिक कल्याण की सुरक्षा के साथ नवाचार को संतुलित करने की आवश्यकता से जूझ रहे हैं। एक प्रमुख चुनौती डीपफेक को कानूनी रूप से परिभाषित करने और उन्हें बनाने या साझा करने वालों के लिए दायित्व के उचित स्तर का निर्धारण करने में निहित है।
मौजूदा कानून, जैसे मानहानि और धोखाधड़ी से संबंधित कानून, कुछ डीपफेक पर लागू हो सकते हैं, लेकिन वे अक्सर इस तकनीक से जुड़ी अनूठी विशेषताओं और संभावित नुकसानों को संबोधित करने में कम पड़ जाते हैं। उदाहरण के लिए, डीपफेक के निर्माण में दुर्भावनापूर्ण इरादे को साबित करना मुश्किल हो सकता है, और ऑनलाइन गलत सूचना के तेजी से प्रसार से एक बार डीपफेक जारी होने के बाद नुकसान को रोकना चुनौतीपूर्ण हो जाता है।
यूरोपीय संघ ने AI अधिनियम के माध्यम से AI को विनियमित करने के लिए कदम उठाए हैं, जिसमें डीपफेक को संबोधित करने वाले प्रावधान शामिल हैं। हालाँकि, संयुक्त राज्य अमेरिका और अन्य देश अभी भी व्यापक कानून विकसित करने की प्रक्रिया में हैं। कुछ विशेषज्ञ एक बहुआयामी दृष्टिकोण की वकालत करते हैं जो कानूनी नियमों को तकनीकी समाधानों, जैसे वॉटरमार्किंग और डिटेक्शन टूल के साथ जोड़ता है।
सरकार ने अपने दृष्टिकोण का बचाव करते हुए कहा है कि वह किसी भी नए कानून के निहितार्थों पर सावधानीपूर्वक विचार कर रही है और प्रौद्योगिकी कंपनियों, कानूनी विशेषज्ञों और नागरिक समाज संगठनों सहित हितधारकों की एक विस्तृत श्रृंखला से इनपुट ले रही है। अधिकारियों ने AI के दुरुपयोग के खिलाफ पर्याप्त सुरक्षा सुनिश्चित करते हुए नवाचार को रोकने से बचने की आवश्यकता पर जोर दिया।
एक सरकारी प्रवक्ता ने एक बयान में कहा, "हम डीपफेक द्वारा पेश की गई चुनौतियों का समाधान करने के लिए प्रतिबद्ध हैं।" "हम एक व्यापक और प्रभावी कानूनी ढांचा विकसित करने के लिए लगन से काम कर रहे हैं जो लाभकारी AI तकनीकों के विकास में बाधा डाले बिना जनता की रक्षा करेगा।"
अगले चरणों में हितधारकों के साथ आगे परामर्श और विशिष्ट विधायी प्रस्तावों का मसौदा तैयार करना शामिल है। यह देखा जाना बाकी है कि क्या सरकार आलोचकों की चिंताओं को दूर करने और ऐसा कानून बनाने में सक्षम होगी जो उन्नत AI के युग में डीपफेक से जुड़े जोखिमों को प्रभावी ढंग से कम करता है। इस परिणाम का ऑनलाइन प्रवचन और सूचना की अखंडता के भविष्य पर महत्वपूर्ण प्रभाव पड़ने की संभावना है।
Discussion
Join the conversation
Be the first to comment