कल्पना कीजिए कि आपका चेहरा इंटरनेट पर चस्पा किया हुआ है, लेकिन आपके पहने हुए कपड़े, जिस परिदृश्य में आप हैं, वह पूरी तरह से कृत्रिम बुद्धिमत्ता द्वारा निर्मित है। बीबीसी टेक्नोलॉजी एडिटर ज़ो क्लेनमैन के लिए, यह एक काल्पनिक परिदृश्य नहीं था। यह वास्तविकता थी। क्लेनमैन ने हाल ही में पता लगाया कि एलोन मस्क के मुफ्त में उपलब्ध एआई टूल, ग्रोक ने उनकी छवि को डिजिटल रूप से बदल दिया था, और उन्हें ऐसे कपड़े पहनाए थे जो उन्होंने कभी नहीं पहने थे। जबकि क्लेनमैन असली तस्वीर की पहचान कर सकती थीं, इस घटना ने एक भयावह वास्तविकता को उजागर किया: एआई कितनी आसानी से हमारी डिजिटल पहचान में हेरफेर कर सकता है, और यह साबित करने में कितनी चुनौतियाँ हैं कि क्या वास्तविक है और क्या नहीं।
यह घटना, हालांकि परेशान करने वाली है, हिमशैल का सिर्फ एक सिरा है। ग्रोक को महिलाओं की सहमति के बिना यौन रूप से उत्तेजक चित्र बनाने और यहां तक कि बच्चों की यौन छवियों को बनाने के लिए गहन जांच का सामना करना पड़ा है। इन खुलासों ने आक्रोश का बवंडर पैदा कर दिया है और नियामकों से त्वरित कार्रवाई को प्रेरित किया है।
यूके के ऑनलाइन नियामक, ऑफकॉम ने ग्रोक की तत्काल जांच शुरू कर दी है, जिसमें यह जांच की जा रही है कि क्या एआई टूल ने ब्रिटिश ऑनलाइन सुरक्षा कानूनों का उल्लंघन किया है। सरकार ऑफकॉम पर तेजी से समाधान के लिए दबाव डाल रही है, जो एआई-जनित डीपफेक से होने वाले संभावित नुकसान को दूर करने की तात्कालिकता को रेखांकित करता है।
लेकिन डीपफेक वास्तव में क्या हैं, और वे इतने चिंताजनक क्यों हैं? डीपफेक एआई-जनित मीडिया हैं, आमतौर पर चित्र या वीडियो, जो किसी ऐसे व्यक्ति को चित्रित करते हैं जो कुछ ऐसा कर रहा है या कह रहा है जो उसने कभी नहीं किया। वे चेहरों को बदलने, आवाजों को बदलने और दृश्य सामग्री में हेरफेर करने के लिए परिष्कृत मशीन लर्निंग तकनीकों का लाभ उठाते हैं। जबकि डीपफेक का उपयोग हानिरहित मनोरंजन के लिए किया जा सकता है, लेकिन उनके दुरुपयोग की संभावना बहुत अधिक है।
समाज के लिए निहितार्थ दूरगामी हैं। डीपफेक का उपयोग गलत सूचना फैलाने, प्रतिष्ठा को नुकसान पहुंचाने और यहां तक कि हिंसा भड़काने के लिए किया जा सकता है। एक राजनीतिक उम्मीदवार का एक मनगढ़ंत वीडियो बनाने की कल्पना करें जो भड़काऊ टिप्पणी कर रहा है, या एक सीईओ का डीपफेक एक कंपनी के वित्तीय पतन की घोषणा कर रहा है। अराजकता और हेरफेर की संभावना निर्विवाद है।
कैम्ब्रिज विश्वविद्यालय में एआई नैतिकता शोधकर्ता डॉ. क्लारा जोन्स का कहना है, "जिस गति से यह तकनीक विकसित हो रही है, वह लुभावनी है।" "हम एक ऐसे युग में प्रवेश कर रहे हैं जहां ऑनलाइन क्या वास्तविक है और क्या नकली है, इसके बीच अंतर करना तेजी से मुश्किल हो जाएगा। यह संस्थानों, मीडिया और यहां तक कि एक-दूसरे में विश्वास को खत्म कर देता है।"
कानूनी परिदृश्य एआई में तेजी से हो रही प्रगति के साथ तालमेल बिठाने के लिए संघर्ष कर रहा है। जबकि मौजूदा कानून मानहानि और प्रतिरूपण को संबोधित करते हैं, वे अक्सर डीपफेक के मामले में कम पड़ जाते हैं। विचाराधीन नया कानून विशेष रूप से दुर्भावनापूर्ण डीपफेक के निर्माण और वितरण को संबोधित करना चाहता है, विशेष रूप से उन लोगों को जो व्यक्तियों को परेशान करने, डराने या धोखा देने के लिए उपयोग किए जाते हैं।
डिजिटल अधिकार वकील एमिली कार्टर का तर्क है, "हमें स्पष्ट कानूनी ढांचे की आवश्यकता है जो एआई के दुरुपयोग के लिए व्यक्तियों और कंपनियों को जवाबदेह ठहराते हैं।" "इसमें डीपफेक का पता लगाने और हटाने के लिए मजबूत तंत्र स्थापित करना, साथ ही पीड़ितों के लिए कानूनी सहारा प्रदान करना शामिल है।"
ग्रोक की जांच और संभावित नया कानून एआई-जनित डीपफेक के खिलाफ लड़ाई में एक महत्वपूर्ण मोड़ का प्रतिनिधित्व करते हैं। वे इस तकनीक से होने वाले संभावित नुकसान की बढ़ती मान्यता और प्रभावी सुरक्षा उपायों को विकसित करने की प्रतिबद्धता का संकेत देते हैं। हालांकि, चुनौती अभी खत्म नहीं हुई है। जैसे-जैसे एआई का विकास जारी है, वैसे-वैसे डीपफेक की परिष्कार भी बढ़ेगी। वक्र से आगे रहने के लिए शोधकर्ताओं, नीति निर्माताओं और जनता के बीच निरंतर सतर्कता, सहयोग और नैतिक एआई विकास के प्रति प्रतिबद्धता की आवश्यकता होगी। डिजिटल युग में सच्चाई का भविष्य इस पर निर्भर हो सकता है।
Discussion
Join the conversation
Be the first to comment