सरकार को डीपफेक से निपटने के लिए बनाए गए कानून के कार्यान्वयन में कथित तौर पर देरी करने के लिए आलोचना का सामना करना पड़ रहा है, खासकर Grok AI के उभरने के बाद, जो एक नया कृत्रिम बुद्धिमत्ता मॉडल है जो यथार्थवादी और संभावित रूप से भ्रामक सामग्री उत्पन्न करने में सक्षम है। आलोचकों का तर्क है कि देरी जनता को गलत सूचना और हेरफेर के प्रति संवेदनशील बनाती है, खासकर जैसे-जैसे तकनीक अधिक परिष्कृत और सुलभ होती जाती है।
चिंताएँ Grok AI और इसी तरह के मॉडलों की वास्तविकता से अलग करने में मुश्किल डीपफेक वीडियो और ऑडियो रिकॉर्डिंग बनाने की क्षमता पर केंद्रित हैं। उन्नत मशीन लर्निंग तकनीकों का उपयोग करके बनाए गए डीपफेक, व्यक्तियों को ऐसी बातें कहते या करते हुए दिखा सकते हैं जो उन्होंने वास्तव में कभी नहीं कीं, जिससे संभावित रूप से प्रतिष्ठा को नुकसान हो सकता है, जनमत प्रभावित हो सकता है, या यहां तक कि हिंसा भी भड़क सकती है। अंतर्निहित तकनीक में अक्सर जेनरेटिव एडवर्सैरियल नेटवर्क (GANs) शामिल होते हैं, जहाँ दो न्यूरल नेटवर्क एक-दूसरे के साथ प्रतिस्पर्धा करते हैं - एक नकली सामग्री उत्पन्न करता है और दूसरा इसे पता लगाने की कोशिश करता है - जिससे तेजी से यथार्थवादी आउटपुट मिलते हैं।
"डीपफेक को विनियमित करने के लिए हम जितनी देर प्रतीक्षा करते हैं, दुर्भावनापूर्ण अभिनेताओं के लिए इस तकनीक का फायदा उठाने के उतने ही अधिक अवसर होते हैं," डिजिटल अधिकार अधिवक्ता लौरा क्रेस ने कहा। "Grok AI की क्षमताएँ केवल तात्कालिकता को बढ़ाती हैं। हमें हानिकारक डीपफेक के निर्माण और वितरण को रोकने और अपराधियों को जवाबदेह ठहराने के लिए स्पष्ट कानूनी ढांचे की आवश्यकता है।"
प्रस्तावित कानून का उद्देश्य डीपफेक समस्या के कई प्रमुख पहलुओं को संबोधित करना है। इनमें यह परिभाषित करना शामिल है कि डीपफेक क्या है, दुर्भावनापूर्ण डीपफेक बनाने या प्रसारित करने वालों के लिए कानूनी देनदारियाँ स्थापित करना, और प्लेटफार्मों को डीपफेक सामग्री का पता लगाने और हटाने के लिए उपाय लागू करने की आवश्यकता है। मामले से परिचित सूत्रों के अनुसार, देरी कानून के दायरे और भाषण की स्वतंत्रता के अधिकारों के संभावित उल्लंघन के बारे में चल रही बहस के कारण हुई है।
कुछ का तर्क है कि अत्यधिक व्यापक नियम AI तकनीक के वैध उपयोगों, जैसे कि कलात्मक अभिव्यक्ति या व्यंग्य को दबा सकते हैं। अन्य लोग गलत सूचना से व्यक्तियों और समाज की सुरक्षा के साथ भाषण की स्वतंत्रता को संतुलित करने की आवश्यकता पर जोर देते हैं। बहस AI जैसी तेजी से विकसित हो रही तकनीकों को विनियमित करने की जटिल चुनौतियों पर प्रकाश डालती है।
"सही संतुलन खोजना महत्वपूर्ण है," इंस्टीट्यूट फॉर टेक्नोलॉजी एंड सोसाइटी में AI नैतिकता शोधकर्ता डॉ. अन्या शर्मा ने कहा। "हमें ऐसे नियमों की आवश्यकता है जो नवाचार या अभिव्यक्ति की स्वतंत्रता को अनुचित तरीके से प्रतिबंधित किए बिना नुकसान को रोकने में प्रभावी हों। इसके लिए Grok AI जैसे AI मॉडल की तकनीकी क्षमताओं के साथ-साथ संभावित सामाजिक प्रभावों पर सावधानीपूर्वक विचार करने की आवश्यकता है।"
सरकार ने चिंताओं को स्वीकार किया है और कहा है कि वह डीपफेक खतरे को दूर करने के लिए प्रतिबद्ध है। अधिकारियों ने संकेत दिया है कि कानून अभी भी समीक्षाधीन है और वे विभिन्न हितधारकों से प्रतिक्रिया को शामिल करने के लिए काम कर रहे हैं। हालाँकि, कानून के कब अंतिम रूप दिए जाने और लागू किए जाने की उम्मीद है, इसके लिए कोई विशिष्ट समय-सीमा प्रदान नहीं की गई है। इस बीच, विशेषज्ञ व्यक्तियों से ऑनलाइन सामग्री के महत्वपूर्ण उपभोक्ता बनने और गलत सूचना फैलाने के लिए डीपफेक के उपयोग की संभावना के बारे में जागरूक होने का आग्रह कर रहे हैं। डीपफेक का पता लगाने के लिए उपकरणों का विकास और तैनाती भी जारी है, लेकिन कई लोग मानते हैं कि ये उपकरण AI तकनीक में प्रगति के साथ लगातार पकड़ने की कोशिश कर रहे हैं।
Discussion
Join the conversation
Be the first to comment