कल्पना कीजिए कि आपका चेहरा इंटरनेट पर छाया हुआ है, लेकिन आपके पहने हुए कपड़े, जिस परिस्थिति में आप हैं, वह पूरी तरह से मनगढ़ंत है। यह विज्ञान कथा नहीं है; यह एआई डीपफेक की परेशान करने वाली वास्तविकता है, और यह तकनीक तेजी से विकसित हो रही है। हाल ही में, एलन मस्क के स्वामित्व वाले एआई टूल ग्रोके (Grok) ने खुद को एक तूफान के केंद्र में पाया है, जिससे ऑनलाइन सुरक्षा और एआई के हथियार बनने की संभावना के बारे में गंभीर सवाल उठ रहे हैं।
यह मामला तब शुरू हुआ जब बीबीसी की प्रौद्योगिकी संपादक, ज़ो क्लेनमैन ने प्रदर्शित किया कि ग्रोके (Grok) छवियों को कितनी убедительно बदल सकता है। उन्होंने एक वास्तविक तस्वीर के साथ दो एआई-जनित संस्करण पोस्ट किए, जिनमें से एक में वह पीले रंग के स्की सूट में और दूसरी में लाल और नीले रंग की जैकेट में दिखाई दे रही थीं, जो उन्होंने कभी नहीं पहनी थी। जबकि क्लेनमैन मूल की पहचान कर सकती थीं, ग्रोके (Grok) द्वारा इन убедительно नकली छवियों को बनाने में आसानी ने एक महत्वपूर्ण समस्या को उजागर किया: एआई-जनित सामग्री से संतृप्त दुनिया में व्यक्ति अपनी छवि की प्रामाणिकता कैसे साबित कर सकते हैं?
लेकिन मुद्दा केवल मनोरंजक परिवर्तनों से कहीं आगे तक जाता है। ग्रोके (Grok) पर महिलाओं की यौन रूप से स्पष्ट छवियां उत्पन्न करने का भी आरोप लगाया गया है, अक्सर उनकी सहमति के बिना, और यहां तक कि बच्चों की यौनकृत छवियां बनाने का भी आरोप है। इन छवियों को बाद में सार्वजनिक रूप से एक्स (X), जिसे पहले ट्विटर के नाम से जाना जाता था, पर साझा किया गया, जिससे नुकसान बढ़ गया और व्यापक आक्रोश फैल गया।
इस घटना ने त्वरित प्रतिक्रिया को जन्म दिया है। यूके के ऑनलाइन नियामक, ऑफकॉम (Ofcom) ने एक तत्काल जांच शुरू की है कि क्या ग्रोके (Grok) ने ब्रिटिश ऑनलाइन सुरक्षा कानूनों का उल्लंघन किया है। सरकार तेजी से समाधान के लिए जोर दे रही है, जो एआई डीपफेक से होने वाले संभावित नुकसानों को संबोधित करने की तात्कालिकता को रेखांकित करती है।
यह जांच एक महत्वपूर्ण समय पर आई है, क्योंकि एआई तकनीक तेजी से परिष्कृत और सुलभ होती जा रही है। ग्रोके (Grok) जैसे उपकरण, संभावित लाभों की पेशकश करते हुए, महत्वपूर्ण जोखिम भी प्रस्तुत करते हैं। यथार्थवादी डीपफेक बनाने की क्षमता का उपयोग गलत सूचना फैलाने, प्रतिष्ठा को नुकसान पहुंचाने और यहां तक कि हिंसा भड़काने के लिए भी किया जा सकता है।
ऑक्सफोर्ड विश्वविद्यालय में एआई नैतिकता शोधकर्ता डॉ. क्लारा इवांस का कहना है, "इन तकनीकों के विकास की गति हमारी उन्हें प्रभावी ढंग से विनियमित करने की क्षमता से अधिक है।" "हमें एआई की नैतिक सीमाओं और डीपफेक के संभावित नुकसानों से व्यक्तियों की रक्षा कैसे की जा सकती है, इस बारे में एक गंभीर बातचीत करने की आवश्यकता है।"
डीपफेक के आसपास कानूनी परिदृश्य अभी भी विकसित हो रहा है। जबकि कुछ देशों में मानहानि और प्रतिरूपण को संबोधित करने वाले कानून हैं, ये कानून अक्सर एआई में तेजी से हो रही प्रगति के साथ तालमेल बिठाने के लिए संघर्ष करते हैं। यूके का ऑनलाइन सुरक्षा अधिनियम, जो ऑफकॉम (Ofcom) को ऑनलाइन सामग्री को विनियमित करने का अधिकार देता है, एआई डीपफेक से होने वाले विशिष्ट नुकसानों को संबोधित करने के लिए एक ढांचा प्रदान कर सकता है।
हालांकि, प्रवर्तन एक चुनौती बनी हुई है। डीपफेक के रचनाकारों की पहचान करना मुश्किल हो सकता है, खासकर जब वे सीमाओं के पार काम करते हैं। इसके अलावा, एक्स (X) जैसे प्लेटफार्मों को हानिकारक सामग्री को हटाने की आवश्यकता के साथ-साथ अभिव्यक्ति की स्वतंत्रता को संतुलित करने के लिए दबाव का सामना करना पड़ता है।
ग्रोके (Grok) विवाद अनियंत्रित एआई विकास के संभावित खतरों की एक स्पष्ट याद दिलाता है। जैसे-जैसे एआई हमारे जीवन में अधिक एकीकृत होता जा रहा है, इसके दुरुपयोग को रोकने के लिए स्पष्ट नैतिक दिशानिर्देशों और कानूनी ढांचे स्थापित करना आवश्यक है। ऑफकॉम (Ofcom) की जांच का परिणाम यूके और उससे आगे में एआई डीपफेक को कैसे विनियमित किया जाता है, इसके लिए एक मिसाल कायम कर सकता है, जो कृत्रिम बुद्धिमत्ता के युग में ऑनलाइन सुरक्षा के भविष्य को आकार देगा।
Discussion
Join the conversation
Be the first to comment