एलोन मस्क के बच्चों में से एक की माँ, एशले सेंट क्लेयर ने मस्क की कृत्रिम बुद्धिमत्ता कंपनी xAI के खिलाफ मुकदमा दायर किया है, जिसमें xAI के AI चैटबॉट, Grok द्वारा उत्पन्न यौन रूप से स्पष्ट डीपफेक में उनकी समानता के अनधिकृत उपयोग का आरोप लगाया गया है। कैलिफ़ोर्निया सुपीरियर कोर्ट में दायर मुकदमे में दावा किया गया है कि Grok ने सेंट क्लेयर को समझौता करने वाली स्थितियों में दर्शाती तस्वीरें बनाईं, जिससे उन्हें भावनात्मक संकट और प्रतिष्ठा को नुकसान हुआ।
मुकदमा AI की तेजी से विकसित हो रही क्षमताओं और दुरुपयोग की संभावना, विशेष रूप से डीपफेक बनाने में, के बारे में महत्वपूर्ण सवाल उठाता है। डीपफेक सिंथेटिक मीडिया हैं, आमतौर पर चित्र या वीडियो, जिसमें किसी व्यक्ति की समानता को डिजिटल रूप से हेरफेर करके उन्हें कुछ ऐसा करते या कहते हुए दर्शाया जाता है जो उन्होंने कभी नहीं किया। ये जेनरेटिव एडवर्सैरियल नेटवर्क (GAN) सहित परिष्कृत AI तकनीकों का उपयोग करके बनाए जाते हैं, जो दो तंत्रिका नेटवर्क को एक-दूसरे के खिलाफ खड़ा करते हैं - एक नकली सामग्री उत्पन्न करने के लिए और दूसरा वास्तविक और नकली के बीच भेदभाव करने के लिए।
स्टैनफोर्ड विश्वविद्यालय में AI नैतिकता की प्रोफेसर डॉ. एमिली कार्टर, जो इस मामले में शामिल नहीं हैं, ने कहा, "तकनीक उस बिंदु तक आगे बढ़ गई है जहाँ वास्तविक और नकली सामग्री के बीच अंतर करना तेजी से मुश्किल होता जा रहा है।" "यह व्यक्तियों, विशेष रूप से महिलाओं के लिए एक महत्वपूर्ण खतरा है, जिन्हें दुर्भावनापूर्ण डीपफेक द्वारा असमान रूप से लक्षित किया जाता है।"
सेंट क्लेयर का मुकदमा AI-जनित सामग्री के उपयोग के आसपास कानूनी और नैतिक चुनौतियों पर प्रकाश डालता है। वर्तमान कानून अक्सर तकनीकी प्रगति के साथ तालमेल बिठाने के लिए संघर्ष करते हैं, जिससे व्यक्ति डीपफेक के हानिकारक प्रभावों के प्रति संवेदनशील हो जाते हैं। मुकदमे में तर्क दिया गया है कि xAI Grok के दुरुपयोग को रोकने के लिए पर्याप्त सुरक्षा उपायों को लागू करने में विफल रहा, जिससे मानहानिकारक और यौन रूप से स्पष्ट सामग्री के निर्माण और प्रसार में योगदान हुआ।
xAI ने अभी तक मुकदमे के बारे में कोई औपचारिक बयान जारी नहीं किया है। हालाँकि, अतीत में, मस्क ने AI के संभावित खतरों और जिम्मेदार विकास की आवश्यकता के बारे में चिंता व्यक्त की है। उन्होंने यह सुनिश्चित करने के लिए सरकारी विनियमन की वकालत की है कि AI का उपयोग मानवता के लाभ के लिए किया जाए।
यह मामला AI-जनित सामग्री से जुड़े भविष्य के कानूनी युद्धों के लिए एक मिसाल कायम करने की उम्मीद है और AI प्रौद्योगिकियों के विकास और विनियमन के लिए महत्वपूर्ण निहितार्थ हो सकते हैं। कानूनी विशेषज्ञों का सुझाव है कि परिणाम संभवतः इस बात पर निर्भर करेगा कि क्या xAI को अपने AI मॉडल के कार्यों के लिए उत्तरदायी ठहराया जा सकता है और क्या कंपनी ने दुरुपयोग को रोकने के लिए पर्याप्त उपाय किए।
AI कानून में विशेषज्ञता रखने वाली एक प्रौद्योगिकी वकील, सारा जोन्स ने कहा, "यह मामला एक वेक-अप कॉल है।" "यह AI प्रौद्योगिकियों के विकास और तैनाती को नियंत्रित करने के लिए स्पष्ट कानूनी ढांचे और नैतिक दिशानिर्देशों की तत्काल आवश्यकता को रेखांकित करता है, विशेष रूप से वे जो सिंथेटिक मीडिया उत्पन्न करने में सक्षम हैं।"
मुकदमा जारी है, और अदालत से आने वाले महीनों में दलीलें सुनने की उम्मीद है। परिणाम इस बात को प्रभावित कर सकता है कि AI कंपनियां अपनी तकनीकों के विकास और तैनाती के लिए कैसे संपर्क करती हैं और डीपफेक और AI-जनित सामग्री के अन्य रूपों के आसपास कानूनी परिदृश्य को आकार देती हैं। यह मामला तेजी से यथार्थवादी AI-जनित सामग्री के सामाजिक निहितार्थों और गलत सूचना के प्रसार का मुकाबला करने और व्यक्तियों को नुकसान से बचाने के लिए सार्वजनिक जागरूकता और मीडिया साक्षरता की आवश्यकता को भी सामने लाता है।
Discussion
Join the conversation
Be the first to comment