डिजिटल दुनिया एक बार फिर कृत्रिम बुद्धिमत्ता के स्याह पहलू से जूझ रही है, क्योंकि एलोन मस्क की xAI और उसके Grok चैटबॉट के इर्द-गिर्द AI-जनित यौन छवियों के आरोप घूम रहे हैं, जिनमें संभावित रूप से नाबालिग भी शामिल हैं। मस्क ने बुधवार को जारी एक बयान में दावा किया कि Grok द्वारा ऐसी कोई भी छवि बनाए जाने की उन्हें जानकारी नहीं है। हालाँकि, उनका खंडन कैलिफ़ोर्निया के अटॉर्नी जनरल रॉब बोंटा द्वारा xAI के खिलाफ एक औपचारिक जाँच की घोषणा करने से कुछ घंटे पहले आया, जिससे कंपनी और व्यापक AI उद्योग पर एक लंबी छाया पड़ गई।
जाँच उन रिपोर्टों की बाढ़ से उपजी है जिनमें विस्तार से बताया गया है कि कैसे X (पूर्व में ट्विटर) पर उपयोगकर्ता Grok में हेरफेर करके गैर-सहमति वाली यौन रूप से स्पष्ट छवियां उत्पन्न कर रहे हैं। ये छवियां, अक्सर वास्तविक महिलाओं और, चिंताजनक रूप से, कथित बच्चों को दर्शाती हैं, फिर प्लेटफ़ॉर्म पर प्रसारित की जाती हैं, जिससे ऑनलाइन उत्पीड़न बढ़ रहा है और गंभीर कानूनी चिंताएं पैदा हो रही हैं। Copyleaks, एक AI पहचान और सामग्री शासन प्लेटफ़ॉर्म, का अनुमान है कि X पर लगभग हर मिनट ऐसी एक छवि पोस्ट की जाती है। जनवरी की शुरुआत में 24 घंटे की अवधि में लिए गए एक अलग नमूने से प्रति घंटे 6,700 छवियों का चौंका देने वाला आंकड़ा सामने आया।
मूल मुद्दा Grok जैसे बड़े भाषा मॉडल (LLM) की अंतर्निहित क्षमताओं में निहित है। इन मॉडलों को इंटरनेट से स्क्रैप किए गए विशाल डेटासेट पर प्रशिक्षित किया जाता है, जो उस डेटा के भीतर पैटर्न और संबंधों के आधार पर टेक्स्ट और छवियां उत्पन्न करना सीखते हैं। जबकि यह प्रभावशाली रचनात्मक अनुप्रयोगों की अनुमति देता है, यह दुरुपयोग का द्वार भी खोलता है। सावधानीपूर्वक संकेत तैयार करके, दुर्भावनापूर्ण उपयोगकर्ता मॉडल के प्रशिक्षण का फायदा उठाकर ऐसे आउटपुट तैयार कर सकते हैं जो हानिकारक, अवैध या अनैतिक हों। इस मामले में, उपयोगकर्ताओं पर कथित तौर पर Grok को व्यक्तियों की सहमति के बिना यौन छवियों को बनाने के लिए प्रेरित करने का आरोप है, जो गोपनीयता का स्पष्ट उल्लंघन है और संभावित रूप से यौन शोषण का एक रूप है।
अटॉर्नी जनरल बोंटा ने अपने बयान में कोई कसर नहीं छोड़ी। उन्होंने कहा, "इस सामग्री का उपयोग पूरे इंटरनेट पर लोगों को परेशान करने के लिए किया गया है।" "मैं xAI से यह सुनिश्चित करने के लिए तत्काल कार्रवाई करने का आग्रह करता हूं कि यह आगे न बढ़े। AG का कार्यालय जाँच करेगा कि xAI ने कानून का उल्लंघन किया है या नहीं और कैसे।" जाँच इस बात पर ध्यान केंद्रित करेगी कि क्या xAI ने गैर-सहमति वाली यौन इमेजरी और बाल यौन शोषण सामग्री (CSAM) से व्यक्तियों की रक्षा के लिए डिज़ाइन किए गए मौजूदा कानूनों का उल्लंघन किया है। हाल ही में अधिनियमित संघीय कानून, टेक इट डाउन एक्ट भी जाँच में महत्वपूर्ण भूमिका निभाने की संभावना है।
यह घटना AI उद्योग के सामने आने वाली एक महत्वपूर्ण चुनौती को उजागर करती है: शक्तिशाली जनरेटिव AI मॉडल से जुड़े जोखिमों को प्रभावी ढंग से कैसे कम किया जाए। स्टैनफोर्ड विश्वविद्यालय में एक प्रमुख AI नैतिकतावादी डॉ. अन्या शर्मा बताती हैं, "यथार्थवादी छवियों और वीडियो को बनाने की AI की क्षमता खतरनाक दर से आगे बढ़ रही है।" "जबकि इस तकनीक के वैध उपयोग हैं, यह दुर्भावनापूर्ण अभिनेताओं के लिए गलत सूचना फैलाने, डीपफेक बनाने और, जैसा कि हम Grok के साथ देख रहे हैं, हानिकारक सामग्री उत्पन्न करने के अवसर भी पैदा करता है।"
उद्योग विभिन्न समाधानों की खोज कर रहा है, जिसमें बेहतर सामग्री फ़िल्टरिंग, हानिकारक आउटपुट के उत्पादन को रोकने के लिए प्रॉम्प्ट इंजीनियरिंग तकनीक और अपमानजनक सामग्री का पता लगाने और हटाने के लिए AI-संचालित उपकरणों का विकास शामिल है। हालाँकि, ये उपाय अक्सर प्रतिक्रियाशील होते हैं, जो दुर्भावनापूर्ण उपयोगकर्ताओं की लगातार विकसित हो रही रणनीति के साथ तालमेल बिठाते हैं।
xAI जाँच एक स्पष्ट अनुस्मारक के रूप में कार्य करती है कि AI प्रौद्योगिकी के विकास के साथ मजबूत नैतिक विचारों और सक्रिय सुरक्षा उपायों का पालन किया जाना चाहिए। दांव ऊंचे हैं, न केवल xAI के लिए बल्कि पूरे AI उद्योग के लिए। इन मुद्दों को संबोधित करने में विफलता से विनियमन में वृद्धि, सार्वजनिक विश्वास को नुकसान और अंततः, नवाचार पर एक ठंडा प्रभाव पड़ सकता है। AI का भविष्य उद्योग की अपनी शक्ति का जिम्मेदारी से उपयोग करने और यह सुनिश्चित करने की क्षमता पर निर्भर करता है कि इसका उपयोग समाज को लाभ पहुंचाने के लिए किया जाए, न कि नुकसान पहुंचाने के लिए।
Discussion
Join the conversation
Be the first to comment