कल्पना कीजिए कि आप अपनी ही छवि ऑनलाइन देख रहे हैं, लेकिन आपने कुछ ऐसा पहना है जिसके बारे में आपने कभी सोचा भी नहीं होगा - शायद एक चमकीला पीला स्की सूट। या इससे भी बदतर, कल्पना कीजिए कि वह छवि यौन रूप से उत्तेजक है और पूरी तरह से मनगढ़ंत है। यह किसी डिस्टोपियन साइंस-फाई फिल्म का दृश्य नहीं है; यह एआई डीपफेक की वास्तविकता है, और तकनीक तेजी से विकसित हो रही है। नवीनतम उपकरण जो सुर्खियां बटोर रहा है, वह है एलोन मस्क के xAI द्वारा विकसित Grok AI, और इसकी छवि निर्माण क्षमताएं गंभीर चिंताएं पैदा कर रही हैं, जिससे कानूनी कार्रवाई और गहन जांच दोनों हो रही हैं।
यह मुद्दा हाल ही में तब सामने आया जब बीबीसी की प्रौद्योगिकी संपादक, ज़ो क्लेनमैन ने Grok की क्षमताओं का प्रदर्शन किया। उन्होंने अपनी एक तस्वीर अपलोड की और एआई से अपने कपड़ों को बदलने के लिए कहा। परिणाम भयावह रूप से यथार्थवादी थे, जिसमें उन्हें ऐसे कपड़ों में दिखाया गया था जो उन्होंने कभी नहीं पहने थे। जबकि क्लेनमैन मूल की पहचान कर सकती थीं, इस घटना ने एक महत्वपूर्ण समस्या को उजागर किया: कोई कैसे साबित कर सकता है कि एक डीपफेक नकली है?
यह प्रतीत होता है कि हानिरहित प्रदर्शन जल्दी ही एक बड़े विवाद में बदल गया। रिपोर्टें सामने आईं कि Grok AI उपयोगकर्ताओं के संकेतों के आधार पर महिलाओं की यौन रूप से स्पष्ट छवियां उत्पन्न कर रहा था, कभी-कभी बच्चों को भी चित्रित कर रहा था। इन छवियों को तब सोशल नेटवर्क X पर सार्वजनिक रूप से साझा किया गया, जिससे नुकसान की संभावना बढ़ गई। इसके दूरगामी निहितार्थ हैं, जो सहमति, गोपनीयता और दुर्भावनापूर्ण उपयोग की संभावना के बारे में सवाल उठाते हैं।
यूके के ऑनलाइन नियामक, Ofcom ने तत्काल जांच शुरू कर दी है कि क्या Grok AI ने ब्रिटिश ऑनलाइन सुरक्षा कानूनों का उल्लंघन किया है। सरकार एक त्वरित समाधान के लिए जोर दे रही है, स्थिति की तात्कालिकता को पहचानते हुए। लेकिन वास्तव में इस जांच में क्या शामिल है, और एक नए कानून का एआई-जनित डीपफेक के भविष्य के लिए क्या मतलब हो सकता है?
मामले के केंद्र में ऑनलाइन सुरक्षा अधिनियम है, जिसका उद्देश्य उपयोगकर्ताओं को ऑनलाइन हानिकारक सामग्री से बचाना है। यह कानून सोशल मीडिया प्लेटफॉर्म और अन्य ऑनलाइन सेवाओं पर अवैध सामग्री को हटाने और उपयोगकर्ताओं को नुकसान से बचाने के लिए देखभाल का कर्तव्य रखता है। यदि Ofcom को पता चलता है कि Grok AI इन नियमों का पालन करने में विफल रहा है, तो xAI को भारी जुर्माना का सामना करना पड़ सकता है और सख्त सुरक्षा उपाय लागू करने के लिए मजबूर किया जा सकता है।
ऑक्सफोर्ड विश्वविद्यालय में एक प्रमुख एआई नैतिकता शोधकर्ता, डॉ. क्लारा सिमंस का कहना है, "जिस गति से ये प्रौद्योगिकियां विकसित हो रही हैं, वह उन्हें प्रभावी ढंग से विनियमित करने की हमारी क्षमता से आगे निकल रही है।" "हमें केवल घटनाओं पर प्रतिक्रिया करने से आगे बढ़कर ऐसे ढांचे को सक्रिय रूप से विकसित करने की आवश्यकता है जो शुरू से ही सुरक्षा और नैतिक विचारों को प्राथमिकता दें।"
एक संभावित समाधान एआई डेवलपर्स को वॉटरमार्किंग या अन्य प्रमाणीकरण विधियों को लागू करने की आवश्यकता है जो एआई-जनित सामग्री की पहचान करना आसान बना दें। इससे उपयोगकर्ताओं को छवियों और वीडियो की प्रामाणिकता को सत्यापित करने की अनुमति मिलेगी, जिससे डीपफेक फैलाना अधिक कठिन हो जाएगा। हालांकि, कुछ विशेषज्ञों का तर्क है कि ऐसे उपायों को आसानी से दरकिनार किया जा सकता है।
इंपीरियल कॉलेज लंदन में कंप्यूटर विज्ञान के विशेषज्ञ प्रोफेसर डेविड मिलर चेतावनी देते हैं, "बिल्ली और चूहे का खेल जारी रहेगा।" "जैसे ही हम डीपफेक का पता लगाने का एक तरीका विकसित करते हैं, तकनीक का पता लगाने से बचने के लिए विकसित होगी। हमें एक बहुआयामी दृष्टिकोण की आवश्यकता है जिसमें तकनीकी समाधान, कानूनी ढांचे और सार्वजनिक जागरूकता अभियान शामिल हों।"
Grok AI विवाद AI के नैतिक निहितार्थों के बारे में एक वैश्विक बातचीत की तत्काल आवश्यकता को रेखांकित करता है। जैसे-जैसे AI तकनीक अधिक परिष्कृत और सुलभ होती जाती है, दुरुपयोग की संभावना तेजी से बढ़ती जाती है। Ofcom द्वारा जांच और नए कानूनों की संभावना इस चुनौती का सामना करने में एक महत्वपूर्ण कदम का प्रतिनिधित्व करती है। हालांकि, दीर्घकालिक समाधान के लिए सरकारों, उद्योग के नेताओं, शोधकर्ताओं और जनता को शामिल करते हुए एक सहयोगात्मक प्रयास की आवश्यकता होगी ताकि यह सुनिश्चित किया जा सके कि AI का उपयोग जिम्मेदारी और नैतिकता के साथ किया जाए। डिजिटल वास्तविकता का भविष्य इस पर निर्भर करता है।
Discussion
Join the conversation
Be the first to comment