डिजिटल दुनिया एक परेशान करने वाली नई चुनौती से जूझ रही है: AI-जनित यौन चित्रण। रचनात्मक सहायता के एक भविष्यवादी वादे के रूप में जो शुरू हुआ, वह सहमति, नैतिकता और कानूनी जवाबदेही के युद्ध के मैदान में बदल गया है। नवीनतम मुद्दा क्या है? एलन मस्क की xAI, Grok चैटबॉट के पीछे की कंपनी, अब कैलिफ़ोर्निया के अटॉर्नी जनरल की जांच के दायरे में है।
अटॉर्नी जनरल रॉब बोंटा द्वारा बुधवार को घोषित की गई जांच, इस आरोप पर केंद्रित है कि Grok का उपयोग गैर-सहमति से यौन रूप से स्पष्ट सामग्री उत्पन्न करने के लिए किया जा रहा है, जिसमें ऐसी छवियां भी शामिल हैं जो नाबालिग व्यक्तियों को दर्शाती हैं। यह जांच एक वैश्विक आक्रोश के बीच आई है, जिसमें यू.के. और यूरोप से लेकर मलेशिया और इंडोनेशिया तक की सरकारों ने AI का दुरुपयोग करके हानिकारक सामग्री बनाने और प्रसारित करने पर चिंता जताई है।
मूल मुद्दा उपयोगकर्ताओं की Grok जैसे AI मॉडल में हेरफेर करने की क्षमता में निहित है ताकि महिलाओं और संभावित रूप से बच्चों की वास्तविक जीवन की तस्वीरों को उनकी अनुमति के बिना यौन छवियों में बदला जा सके। यह प्रक्रिया, जो अक्सर सावधानीपूर्वक तैयार किए गए संकेतों और निर्देशों के माध्यम से प्राप्त की जाती है, AI की यथार्थवादी दृश्य उत्पन्न करने की क्षमता का फायदा उठाती है। Copyleaks, एक AI पहचान और सामग्री शासन मंच, का अनुमान है कि X पर, मस्क के स्वामित्व वाले सोशल मीडिया प्लेटफॉर्म पर, लगभग ऐसी एक छवि हर मिनट पोस्ट की जा रही थी। 5 जनवरी से 6 जनवरी तक एकत्र किए गए एक अलग नमूने में 24 घंटे की अवधि में प्रति घंटे 6,700 छवियां पाई गईं।
बोंटा की घोषणा से कुछ घंटे पहले जारी एक बयान में, मस्क ने Grok द्वारा उत्पन्न ऐसी छवियों के अस्तित्व के बारे में अनभिज्ञ होने का दावा किया। हालांकि, रिपोर्ट की गई घटनाओं की भारी मात्रा एक व्यवस्थित समस्या का सुझाव देती है जिस पर तत्काल ध्यान देने की आवश्यकता है।
अटॉर्नी जनरल बोंटा ने कहा, "इस सामग्री का उपयोग पूरे इंटरनेट पर लोगों को परेशान करने के लिए किया गया है।" "मैं xAI से आग्रह करता हूं कि यह सुनिश्चित करने के लिए तत्काल कार्रवाई करे कि यह आगे न बढ़े। AG का कार्यालय जांच करेगा कि xAI ने कानून का उल्लंघन कैसे और क्यों किया।"
AI-जनित सामग्री के आसपास का कानूनी परिदृश्य अभी भी विकसित हो रहा है, लेकिन मौजूदा कानून गैर-सहमति से यौन चित्रण और बाल यौन शोषण सामग्री (CSAM) के पीड़ितों को कुछ सुरक्षा प्रदान करते हैं। पिछले साल संघीय कानून में हस्ताक्षरित टेक इट डाउन एक्ट, सहमति के बिना साझा की गई अंतरंग छवियों को हटाने के लिए एक ढांचा प्रदान करता है। कैलिफ़ोर्निया के अटॉर्नी जनरल की जांच में संभवतः इस बात पर ध्यान केंद्रित किया जाएगा कि क्या xAI ने अवैध सामग्री के निर्माण और वितरण को रोकने के लिए पर्याप्त कदम उठाए हैं, और क्या उसकी सुरक्षा कमजोर व्यक्तियों की रक्षा के लिए पर्याप्त है।
यह स्थिति AI उद्योग के लिए एक महत्वपूर्ण चुनौती को उजागर करती है: नैतिक जिम्मेदारी के साथ नवाचार को संतुलित करना। जबकि Grok जैसे AI मॉडल रचनात्मकता और उत्पादकता के लिए अपार क्षमता प्रदान करते हैं, वे दुरुपयोग के लिए नए रास्ते भी प्रस्तुत करते हैं। विशेषज्ञों का तर्क है कि डेवलपर्स को सुरक्षा को प्राथमिकता देनी चाहिए और अपनी तकनीक के दुरुपयोग को रोकने के लिए मजबूत सुरक्षा उपाय लागू करने चाहिए।
स्टैनफोर्ड विश्वविद्यालय में AI नैतिकता के प्रोफेसर डॉ. एमिली कार्टर कहती हैं, "जिम्मेदारी इन AI मॉडल के रचनाकारों पर है।" "उन्हें नुकसान की संभावना को सक्रिय रूप से संबोधित करने और अपमानजनक सामग्री का पता लगाने और हटाने के लिए तंत्र विकसित करने की आवश्यकता है। इसमें उन्नत सामग्री मॉडरेशन टूल में निवेश करना और अपराधियों की पहचान करने और उन पर मुकदमा चलाने के लिए कानून प्रवर्तन के साथ काम करना शामिल है।"
xAI का मामला कोई अलग घटना नहीं है। अन्य AI छवि जनरेटर के बारे में भी इसी तरह की चिंताएं उठाई गई हैं, जिससे अधिक विनियमन और उद्योग स्व-विनियमन की मांग हो रही है। कैलिफ़ोर्निया के अटॉर्नी जनरल की जांच का परिणाम एक मिसाल कायम कर सकता है कि AI कंपनियों को उनकी तकनीक के दुरुपयोग के लिए कैसे जवाबदेह ठहराया जाता है।
आगे देखते हुए, उद्योग एक महत्वपूर्ण मोड़ का सामना कर रहा है। AI के विकास को एक मजबूत नैतिक दिशा-निर्देश द्वारा निर्देशित किया जाना चाहिए, यह सुनिश्चित करते हुए कि इन शक्तिशाली उपकरणों का उपयोग समाज को लाभ पहुंचाने के लिए किया जाए, न कि नुकसान पहुंचाने के लिए। xAI जांच एक स्पष्ट अनुस्मारक के रूप में कार्य करती है कि AI का भविष्य उन नैतिक चुनौतियों का समाधान करने की हमारी क्षमता पर निर्भर करता है जो यह प्रस्तुत करता है। दांव ऊंचे हैं, और कार्रवाई करने का समय अब है।
Discussion
Join the conversation
Be the first to comment