इंटरनेट वॉच फ़ाउंडेशन (IWF) ने बच्चों की यौन छवियों को खोजने की सूचना दी है जो xAI द्वारा विकसित एक कृत्रिम बुद्धिमत्ता चैटबॉट, Grok का उपयोग करके बनाई गई "प्रतीत होती हैं"। IWF, यूके स्थित एक संगठन है जो बाल यौन शोषण सामग्री (CSAM) की पहचान करने और उसे ऑनलाइन हटाने के लिए समर्पित है, ने अपनी नियमित निगरानी गतिविधियों के दौरान यह खोज की।
IWF के अनुसार, Grok AI को दिए गए संकेतों के माध्यम से इमेजरी उत्पन्न की गई थी। पीड़ितों की सुरक्षा और आगे प्रसार से बचने के लिए संकेतों और परिणामी छवियों की सटीक प्रकृति का खुलासा नहीं किया गया, लेकिन IWF ने कहा कि इमेजरी अवैध सामग्री के लिए अपनी सीमा को पूरा करती है। संगठन ने तब से पहचानी गई सामग्री को हटाने के लिए कदम उठाए हैं और प्रासंगिक कानून प्रवर्तन एजेंसियों के साथ काम कर रहा है।
इस घटना से AI मॉडल के दुर्भावनापूर्ण उद्देश्यों, विशेष रूप से CSAM के निर्माण और प्रसार के लिए शोषण किए जाने की संभावना के बारे में महत्वपूर्ण चिंताएँ बढ़ गई हैं। यह AI डेवलपर्स के लिए दुरुपयोग को रोकने के लिए मजबूत सुरक्षा उपायों और सामग्री मॉडरेशन सिस्टम को लागू करने की चल रही चुनौती को उजागर करता है। IWF के एक प्रवक्ता ने कहा, "यह शक्तिशाली AI उपकरणों को विकसित करने के साथ आने वाली जिम्मेदारियों की एक स्पष्ट याद दिलाता है।" "हमें यह सुनिश्चित करने के लिए सक्रिय उपायों की आवश्यकता है कि इन तकनीकों का उपयोग बच्चों को नुकसान पहुंचाने के लिए न किया जाए।"
Grok, जिसे xAI द्वारा 2023 के अंत में लॉन्च किया गया था, एक बड़ा भाषा मॉडल (LLM) है जिसे टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने, विभिन्न प्रकार की रचनात्मक सामग्री लिखने और सूचनात्मक तरीके से सवालों के जवाब देने के लिए डिज़ाइन किया गया है। LLM को टेक्स्ट और कोड के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे मानव-जैसे टेक्स्ट को समझने और उत्पन्न करने में सक्षम होते हैं। हालाँकि, यह प्रशिक्षण उन्हें संभावित रूप से हानिकारक सामग्री के संपर्क में भी लाता है, जिससे डेवलपर्स को अनुचित या अवैध सामग्री के उत्पादन को रोकने के लिए फ़िल्टर और सुरक्षा तंत्र लागू करने की आवश्यकता होती है।
IWF द्वारा की गई खोज AI के युग में सामग्री मॉडरेशन की जटिलताओं को रेखांकित करती है। CSAM की पहचान करने और हटाने के पारंपरिक तरीके, जो अक्सर मानव समीक्षा पर निर्भर करते हैं, AI द्वारा सामग्री उत्पन्न करने की गति और पैमाने से चुनौती दी जाती है। इसके लिए स्वचालित पहचान उपकरणों और संभावित जोखिमों की पहचान करने और कम करने के लिए सक्रिय उपायों के विकास की आवश्यकता है।
इस घटना से पूरे उद्योग में AI सुरक्षा प्रोटोकॉल और सामग्री मॉडरेशन प्रथाओं की आगे जांच होने की संभावना है। नियामक और नीति निर्माता AI से जुड़े संभावित नुकसानों को दूर करने पर तेजी से ध्यान केंद्रित कर रहे हैं, जिसमें CSAM, दुष्प्रचार और हानिकारक सामग्री के अन्य रूपों का उत्पादन शामिल है। उदाहरण के लिए, यूरोपीय संघ के AI अधिनियम में उच्च जोखिम वाले AI सिस्टम को विनियमित करने और गैर-अनुपालन के लिए दंड लगाने के प्रावधान शामिल हैं।
xAI ने अभी तक IWF के निष्कर्षों के बारे में कोई आधिकारिक बयान जारी नहीं किया है। हालाँकि, कंपनी से जांच में सहयोग करने और Grok में पहचानी गई कमजोरियों को दूर करने के लिए कदम उठाने की उम्मीद है। यह घटना AI समुदाय के लिए सुरक्षा उपायों को मजबूत करने और इन शक्तिशाली तकनीकों के दुरुपयोग को रोकने के लिए एक महत्वपूर्ण सीखने के अवसर के रूप में काम करती है। IWF ऑनलाइन प्लेटफ़ॉर्म पर CSAM की निगरानी करना और बच्चों के शोषण का मुकाबला करने के लिए उद्योग भागीदारों के साथ सहयोग करना जारी रखता है।
Discussion
Join the conversation
Be the first to comment