डाउनिंग स्ट्रीट ने उन रिपोर्टों को स्वीकार किया है जिनमें कहा गया है कि X, जिसे पहले ट्विटर के नाम से जाना जाता था, Grok का उपयोग करके बनाए गए डीपफेक की समस्या से निपटने के लिए कदम उठा रहा है, जो इसका कृत्रिम बुद्धिमत्ता मॉडल है। यह कदम AI-जनित सामग्री के दुरुपयोग की संभावना के बारे में बढ़ती चिंताओं के बीच उठाया गया है, ताकि गलत सूचना और दुष्प्रचार फैलाया जा सके।
प्रधान मंत्री के एक प्रवक्ता ने कहा कि सरकार डीपफेक से जुड़े जोखिमों को कम करने के किसी भी प्रयास का स्वागत करती है, और जिम्मेदार AI विकास और तैनाती के महत्व पर जोर देती है। प्रवक्ता ने कहा, "हम प्लेटफ़ॉर्म को AI-जनित सामग्री से जुड़े संभावित नुकसानों को दूर करने के लिए सक्रिय उपाय करते हुए देखकर प्रोत्साहित हैं।" "सरकार उद्योग और अन्य हितधारकों के साथ मिलकर यह सुनिश्चित करने के लिए प्रतिबद्ध है कि AI को सुरक्षित और नैतिक तरीके से विकसित और उपयोग किया जाए।"
डीपफेक सिंथेटिक मीडिया हैं जिनमें किसी मौजूदा छवि या वीडियो में किसी व्यक्ति को किसी और की समानता से बदल दिया जाता है। यह आमतौर पर परिष्कृत मशीन लर्निंग तकनीकों, विशेष रूप से डीप लर्निंग एल्गोरिदम का उपयोग करके प्राप्त किया जाता है - इसलिए इसका नाम "डीपफेक" है। Grok, X का AI मॉडल, एक बड़ा भाषा मॉडल (LLM) है जो ChatGPT और Google के Gemini जैसे अन्य AI टूल को शक्ति प्रदान करने वाले मॉडल के समान है। LLM को टेक्स्ट और कोड के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे मानव जैसी टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने और विभिन्न प्रकार की सामग्री बनाने में सक्षम होते हैं। चिंता यह है कि Grok, यदि दुरुपयोग किया जाता है, तो यथार्थवादी दिखने वाले डीपफेक उत्पन्न कर सकता है जो दर्शकों को धोखा देने और झूठी कहानियाँ फैलाने में सक्षम हैं।
X ने अभी तक Grok-जनित डीपफेक का मुकाबला करने के लिए कार्यान्वित किए जा रहे उपायों के बारे में विशिष्ट विवरण जारी नहीं किए हैं। हालाँकि, उद्योग विश्लेषकों का अनुमान है कि कंपनी AI-जनित सामग्री को वॉटरमार्क करने, डीपफेक का पता लगाने के लिए एल्गोरिदम विकसित करने और सख्त सामग्री मॉडरेशन नीतियों को लागू करने जैसी तकनीकों का उपयोग कर सकती है। वॉटरमार्किंग में उत्पन्न सामग्री में एक सूक्ष्म, अक्सर अदृश्य, मार्कर एम्बेड करना शामिल है जो इसे AI-जनित के रूप में पहचानता है। डिटेक्शन एल्गोरिदम वीडियो और छवियों में हेरफेर के संकेतों का पता लगाने के लिए उनका विश्लेषण करते हैं, जैसे कि प्रकाश में असंगतता, अप्राकृतिक चेहरे की हरकतें, या AI पीढ़ी प्रक्रिया द्वारा पेश किए गए आर्टिफैक्ट।
डीपफेक का उदय सूचना पारिस्थितिकी तंत्र के लिए एक महत्वपूर्ण चुनौती है। विशेषज्ञों का चेतावनी है कि इन हेरफेर किए गए वीडियो और छवियों का उपयोग प्रतिष्ठा को नुकसान पहुंचाने, चुनावों को प्रभावित करने और कलह बोने के लिए किया जा सकता है। घटनाओं और बयानों को убедительно गढ़ने की क्षमता संस्थानों में विश्वास को कम कर सकती है और सार्वजनिक चर्चा को कमजोर कर सकती है।
सरकार के डिजिटल सचिव ने हाल ही में डीपफेक के उपयोग को विनियमित करने के लिए कानून पेश करने की योजना की घोषणा की, जिसमें राजनीतिक विज्ञापन और ऑनलाइन सुरक्षा जैसे क्षेत्रों पर ध्यान केंद्रित किया गया है। प्रस्तावित कानून में AI-जनित सामग्री के प्रकटीकरण की आवश्यकता और हानिकारक डीपफेक के प्रसार के लिए प्लेटफार्मों को जवाबदेह ठहराने के उपाय शामिल होने की उम्मीद है।
सूचना आयुक्त कार्यालय (ICO), यूके का स्वतंत्र डेटा सुरक्षा प्राधिकरण, AI के नैतिक निहितार्थों और गोपनीयता और डेटा सुरक्षा पर इसके संभावित प्रभाव की भी जांच कर रहा है। ICO ने AI प्रणालियों के जिम्मेदार विकास और तैनाती पर मार्गदर्शन जारी किया है, जिसमें पारदर्शिता, जवाबदेही और निष्पक्षता की आवश्यकता पर जोर दिया गया है।
स्थिति अभी भी अस्थिर है, और X की विशिष्ट कार्रवाइयों के बारे में आगे के विवरण आने वाले हफ्तों में अपेक्षित हैं। इन उपायों की प्रभावशीलता की बारीकी से निगरानी नीति निर्माताओं, उद्योग विशेषज्ञों और जनता द्वारा की जाएगी। चल रही बहस डीपफेक द्वारा प्रस्तुत चुनौतियों का समाधान करने के लिए एक बहुआयामी दृष्टिकोण की तत्काल आवश्यकता पर प्रकाश डालती है, जिसमें तकनीकी समाधान, नियामक ढांचे और सार्वजनिक जागरूकता अभियान शामिल हैं।
Discussion
Join the conversation
Be the first to comment