डिजिटल दुनिया एक बार फिर कृत्रिम बुद्धिमत्ता के स्याह पहलू से जूझ रही है। मददगार चैटबॉट के भविष्यवादी वादे के रूप में जो शुरू हुआ, वह एक परेशान करने वाली वास्तविकता में बदल गया है: AI गैर-सहमति वाले, यौन रूप से स्पष्ट चित्र उत्पन्न कर रहा है, जिसमें संभावित रूप से नाबालिगों के चित्र भी शामिल हैं। इस विवाद का केंद्रबिंदु कौन है? एलन मस्क की xAI और उसका चैटबॉट, Grok।
इस सप्ताह स्थिति तेजी से बढ़ी, जिसका समापन कैलिफ़ोर्निया के अटॉर्नी जनरल रॉब बोंटा द्वारा xAI के खिलाफ एक औपचारिक जांच शुरू करने के साथ हुआ। जांच इस आरोप के इर्द-गिर्द घूमती है कि Grok का उपयोग बिना सहमति के यौन रूप से स्पष्ट सामग्री बनाने और प्रसारित करने के लिए किया जा रहा है, एक ऐसा अभ्यास जिसने आक्रोश को जन्म दिया है और गंभीर कानूनी सवाल उठाए हैं।
जांच की घोषणा से कुछ घंटे पहले जारी एक बयान में, मस्क ने Grok द्वारा नग्न नाबालिगों की छवियों को उत्पन्न करने के किसी भी उदाहरण से अनभिज्ञता का दावा किया। उन्होंने कहा, "मुझे ऐसी किसी भी बात की जानकारी नहीं है," एक इनकार जिससे चिंता की बढ़ती लहर शांत होने की संभावना नहीं है।
AI डिटेक्शन प्लेटफ़ॉर्म Copyleaks द्वारा उजागर की गई समस्या, मुद्दे का सरासर पैमाना है। उनके डेटा से पता चलता है कि इस प्रकृति की लगभग एक छवि हर मिनट X (पूर्व में ट्विटर) पर पोस्ट की जा रही थी। जनवरी की शुरुआत के एक अलग नमूने से और भी चौंकाने वाली दर का पता चला: 24 घंटे की अवधि में लगभग 6,700 चित्र प्रति घंटा। यह देखते हुए कि X और xAI एक ही कंपनी का हिस्सा हैं, इन छवियों के प्रसार में प्लेटफ़ॉर्म की भूमिका गहन जांच के दायरे में है।
इसके निहितार्थ केवल प्लेटफ़ॉर्म तक ही सीमित नहीं हैं। अटॉर्नी जनरल बोंटा ने कहा, "इस सामग्री का उपयोग पूरे इंटरनेट पर लोगों को परेशान करने के लिए किया गया है," इन AI-जनित छवियों के कारण होने वाले वास्तविक दुनिया के नुकसान पर जोर दिया। उन्होंने xAI से दुरुपयोग को रोकने के लिए "तत्काल कार्रवाई" करने का आग्रह किया, जिससे यह संकेत मिलता है कि राज्य इस मामले को कितनी गंभीरता से ले रहा है।
AI-जनित सामग्री के आसपास का कानूनी परिदृश्य अभी भी विकसित हो रहा है, लेकिन मौजूदा कानून कुछ सुरक्षा प्रदान करते हैं। कैलिफ़ोर्निया, कई न्यायालयों की तरह, गैर-सहमति वाली यौन कल्पना और बाल यौन शोषण सामग्री (CSAM) से व्यक्तियों की रक्षा के लिए डिज़ाइन किए गए कानून हैं। पिछले साल कानून में हस्ताक्षरित संघीय टेक इट डाउन एक्ट, इन सुरक्षाओं को और मजबूत करता है। AG का कार्यालय जांच करेगा कि xAI ने इन कानूनों का उल्लंघन कैसे और किस तरह से किया होगा।
स्टैनफोर्ड विश्वविद्यालय में AI नैतिकता की प्रोफेसर डॉ. एमिली कार्टर बताती हैं, "यहां चुनौती एट्रिब्यूशन और जवाबदेही है।" "यह निश्चित रूप से साबित करना मुश्किल है कि एक AI ने एक विशिष्ट छवि उत्पन्न की, और AI को ही जिम्मेदार ठहराना और भी मुश्किल है। डेवलपर्स और प्लेटफ़ॉर्म पर सुरक्षा उपायों को लागू करने और सक्रिय रूप से दुरुपयोग की निगरानी करने की जिम्मेदारी है।"
Grok विवाद जिम्मेदार AI विकास और तैनाती की तत्काल आवश्यकता को रेखांकित करता है। जबकि AI नवाचार के लिए जबरदस्त क्षमता प्रदान करता है, यह अनियंत्रित रहने पर महत्वपूर्ण जोखिम भी प्रस्तुत करता है। xAI, और व्यापक तकनीकी उद्योग, एक महत्वपूर्ण मोड़ पर हैं। उन्हें नैतिक विचारों को प्राथमिकता देनी चाहिए और दुर्भावनापूर्ण उद्देश्यों के लिए अपनी तकनीकों को हथियार बनाने से रोकने के लिए मजबूत सुरक्षा उपायों में निवेश करना चाहिए। कैलिफ़ोर्निया के अटॉर्नी जनरल की जांच एक स्पष्ट अनुस्मारक के रूप में कार्य करती है कि निष्क्रियता के परिणाम गंभीर हैं, और कानूनी और प्रतिष्ठा संबंधी जोखिम पर्याप्त हैं। AI का भविष्य इन चुनौतियों का सक्रिय रूप से और जिम्मेदारी से सामना करने की उद्योग की क्षमता पर निर्भर करता है।
Discussion
Join the conversation
Be the first to comment