इंटरनेट वॉच फ़ाउंडेशन (IWF), जो यूके स्थित एक चैरिटी है और ऑनलाइन बाल यौन शोषण से संबंधित छवियों की पहचान करने और उन्हें हटाने पर केंद्रित है, ने ऐसी छवियों को खोजने की सूचना दी है जो "ऐसा प्रतीत होता है कि" एलन मस्क की xAI द्वारा विकसित कृत्रिम बुद्धिमत्ता मॉडल, Grok द्वारा बनाई गई हैं। संगठन द्वारा जारी एक बयान के अनुसार, IWF ने छवियों को चिह्नित किया और xAI को इसकी सूचना दी।
इस खोज से AI मॉडल के दुर्भावनापूर्ण उद्देश्यों, विशेष रूप से बाल यौन शोषण सामग्री (CSAM) के निर्माण के लिए शोषण की संभावना के बारे में महत्वपूर्ण चिंताएँ पैदा होती हैं। यह घटना तेजी से परिष्कृत AI तकनीक के दुरुपयोग को रोकने में आने वाली चुनौतियों को उजागर करती है।
नवंबर 2023 में लॉन्च किया गया Grok, एक बड़ा भाषा मॉडल (LLM) है जिसे टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने, विभिन्न प्रकार की रचनात्मक सामग्री लिखने और जानकारीपूर्ण तरीके से सवालों के जवाब देने के लिए डिज़ाइन किया गया है। LLM को टेक्स्ट और कोड के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे पैटर्न सीखने और नई सामग्री उत्पन्न करने में सक्षम होते हैं। हालाँकि, इस प्रशिक्षण का मतलब यह भी है कि यदि सुरक्षा उपायों को प्रभावी ढंग से लागू नहीं किया जाता है तो वे संभावित रूप से हानिकारक या अवैध सामग्री को पुन: उत्पन्न कर सकते हैं।
IWF की CEO, सुसी हरग्रीव्स OBE ने एक प्रेस विज्ञप्ति में कहा, "IWF की प्राथमिक चिंता बच्चों की सुरक्षा है।" "हम इस घटना के आसपास की परिस्थितियों को समझने और यह सुनिश्चित करने के लिए xAI के साथ काम कर रहे हैं कि भविष्य में होने वाली घटनाओं को रोकने के लिए उचित उपाय किए जाएं।"
xAI ने अभी तक IWF के निष्कर्षों के बारे में कोई सार्वजनिक बयान जारी नहीं किया है। हालाँकि, कंपनी ने पहले AI को जिम्मेदारी से विकसित करने और संभावित जोखिमों को कम करने की अपनी प्रतिबद्धता बताई है। इस घटना से xAI के सुरक्षा प्रोटोकॉल और सामग्री मॉडरेशन नीतियों की जांच तेज होने की संभावना है।
यह घटना AI मॉडल द्वारा CSAM के निर्माण को रोकने की व्यापक उद्योग-व्यापी चुनौती को रेखांकित करती है। विशेषज्ञों ने हानिकारक सामग्री का पता लगाने और उसे हटाने के लिए मजबूत फ़िल्टरिंग तंत्र, सामग्री मॉडरेशन रणनीतियों और निरंतर निगरानी की आवश्यकता पर जोर दिया है। इसमें प्रतिकूल प्रशिक्षण जैसी तकनीकें शामिल हैं, जहाँ AI मॉडल को विशेष रूप से CSAM उत्पन्न करने से बचने और उसकी पहचान करने के लिए प्रशिक्षित किया जाता है।
यह विकास ऐसे समय में हुआ है जब वैश्विक स्तर पर नियामक AI को विनियमित करने के तरीके से जूझ रहे हैं। उदाहरण के लिए, यूरोपीय संघ का AI अधिनियम, AI विकास और तैनाती के लिए एक कानूनी ढांचा स्थापित करना चाहता है, जिसमें उच्च जोखिम वाले अनुप्रयोगों को संबोधित करने वाले विशिष्ट प्रावधान हैं। Grok से जुड़ी घटना से AI उद्योग में सख्त नियमों और अधिक जवाबदेही की आवश्यकता के बारे में बहस बढ़ने की संभावना है।
IWF ऑनलाइन CSAM के प्रसार का मुकाबला करने के लिए xAI और अन्य प्रौद्योगिकी कंपनियों के साथ काम करना जारी रखता है। संगठन के प्रयासों में अवैध सामग्री की पहचान करना और उसकी रिपोर्ट करना, हानिकारक सामग्री का पता लगाने और उसे हटाने के लिए उपकरण विकसित करना और इस मुद्दे के बारे में जागरूकता बढ़ाना शामिल है। Grok द्वारा उत्पन्न छवियों की जांच जारी है, और xAI द्वारा अपनी आंतरिक समीक्षा करने पर और अधिक विवरण सामने आने की उम्मीद है।
Discussion
Join the conversation
Be the first to comment