कैलिफ़ोर्निया के अटॉर्नी जनरल रॉब बोन्टा ने शुक्रवार को xAI को एक सीज़-एंड-डेसिस्ट पत्र जारी किया, जिसमें कंपनी से डीपफेक, गैर-सहमतिपूर्ण, अंतरंग छवियों और बाल यौन शोषण सामग्री (CSAM) के निर्माण और वितरण को तुरंत रोकने की मांग की गई। यह कार्रवाई अटॉर्नी जनरल के कार्यालय की ओर से पहले की गई घोषणा के बाद हुई है जिसमें कहा गया था कि वह xAI, एलन मस्क के आर्टिफिशियल इंटेलिजेंस स्टार्टअप, की जांच कर रहा है, क्योंकि ऐसी खबरें आई थीं कि इसके चैटबॉट, ग्रोक का उपयोग महिलाओं और नाबालिगों की गैर-सहमतिपूर्ण यौन छवियों को उत्पन्न करने के लिए किया जा रहा था।
अटॉर्नी जनरल के कार्यालय का आरोप है कि xAI गैर-सहमतिपूर्ण नग्न तस्वीरों के बड़े पैमाने पर उत्पादन की सुविधा प्रदान कर रहा है, जिनका उपयोग महिलाओं और लड़कियों को ऑनलाइन परेशान करने के लिए किया जा रहा है। बोन्टा ने एक प्रेस विज्ञप्ति में कहा, "आज, मैंने xAI को एक सीज़-एंड-डेसिस्ट पत्र भेजा, जिसमें कंपनी से डीपफेक, गैर-सहमतिपूर्ण, अंतरंग छवियों और बाल यौन शोषण सामग्री के निर्माण और वितरण को तुरंत रोकने की मांग की गई है।" "इस सामग्री का निर्माण अवैध है। मुझे पूरी उम्मीद है कि xAI तुरंत इसका पालन करेगा। कैलिफ़ोर्निया में CSAM के लिए ज़ीरो टॉलरेंस है।"
विवाद के केंद्र में ग्रोक का "स्पाइसी मोड" फ़ीचर है, जिसे xAI ने AI से अधिक अप्रतिबंधित और संभावित रूप से विवादास्पद प्रतिक्रियाओं की अनुमति देने के लिए बनाया था। यह सुविधा, जबकि AI इंटरैक्शन की सीमाओं को आगे बढ़ाने के लिए अभिप्रेत है, ने हानिकारक और अवैध सामग्री के उत्पादन के लिए द्वार खोल दिया है। डीपफेक, जो AI-जनित सिंथेटिक मीडिया हैं, किसी व्यक्ति को कुछ ऐसा करते या कहते हुए दिखा सकते हैं जो उन्होंने कभी नहीं किया, जिससे मानहानि, गोपनीयता के उल्लंघन और गैर-सहमतिपूर्ण पोर्नोग्राफी बनाने में दुरुपयोग की संभावना के बारे में गंभीर चिंताएं बढ़ जाती हैं।
अटॉर्नी जनरल के कार्यालय ने xAI को यह प्रदर्शित करने के लिए पांच दिन दिए हैं कि वह इन मुद्दों को हल करने के लिए ठोस कदम उठा रहा है। जांच AI-जनित सामग्री को विनियमित करने की बढ़ती चुनौतियों और शक्तिशाली AI उपकरणों के दुरुपयोग की संभावना को उजागर करती है। यह AI डेवलपर्स की अपनी तकनीकों को दुर्भावनापूर्ण उद्देश्यों के लिए उपयोग करने से रोकने की जिम्मेदारी के बारे में भी सवाल उठाता है।
ग्रोक जैसे जेनरेटिव AI मॉडल के उदय ने AI के नैतिक निहितार्थों और मजबूत सुरक्षा उपायों की आवश्यकता के बारे में बहस को जन्म दिया है। विशेषज्ञ हानिकारक सामग्री के निर्माण और प्रसार को रोकने के लिए अंतर्निहित सुरक्षा तंत्र और सामग्री मॉडरेशन नीतियों के साथ AI सिस्टम विकसित करने के महत्व पर जोर देते हैं। कैलिफ़ोर्निया के अटॉर्नी जनरल द्वारा xAI की जांच तकनीकी कंपनियों को उनकी AI तकनीकों के कारण होने वाले संभावित नुकसान के लिए जवाबदेह ठहराने और व्यक्तियों को ऑनलाइन शोषण और दुर्व्यवहार से बचाने के लिए एक व्यापक प्रयास का हिस्सा है। इस जांच का परिणाम एक मिसाल कायम कर सकता है कि AI कंपनियों को कैसे विनियमित किया जाता है और उनके प्लेटफार्मों द्वारा उत्पन्न सामग्री के लिए कैसे जिम्मेदार ठहराया जाता है।
Discussion
Join the conversation
Be the first to comment