इंटरनेट वॉच फ़ाउंडेशन (IWF), जो कि यूके स्थित एक चैरिटी संस्था है और ऑनलाइन बाल यौन शोषण की छवियों की पहचान कर उन्हें हटाने पर केंद्रित है, ने ऐसी छवियों को खोजने की सूचना दी है जो "ऐसा प्रतीत होता है कि" एलन मस्क की xAI द्वारा विकसित कृत्रिम बुद्धिमत्ता मॉडल, ग्रोक द्वारा बनाई गई हैं। IWF ने अवैध सामग्री के लिए इंटरनेट की नियमित निगरानी के दौरान यह खोज की।
IWF ने छवियों की विशिष्ट प्रकृति का खुलासा नहीं किया, क्योंकि इससे सामग्री के और अधिक प्रसार से बचने की आवश्यकता थी। हालाँकि, संगठन ने पुष्टि की कि छवियाँ बाल यौन शोषण की छवियों के लिए उनके मानदंडों को पूरा करती हैं। IWF की सीईओ सुसी हरग्रीव्स ओबीई ने एक प्रेस विज्ञप्ति में कहा, "हमारी प्राथमिकता बच्चों की सुरक्षा है, और हम इस प्रकार की सामग्री को इंटरनेट से हटाने के लिए लगन से काम करते हैं।" "हम इस मुद्दे को हल करने के लिए प्रासंगिक प्लेटफार्मों और कानून प्रवर्तन एजेंसियों के साथ काम कर रहे हैं।"
ग्रेक, जिसे 2023 के अंत में लॉन्च किया गया था, एक बड़ा भाषा मॉडल (LLM) है जिसे टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने, विभिन्न प्रकार की रचनात्मक सामग्री लिखने और जानकारीपूर्ण तरीके से सवालों के जवाब देने के लिए डिज़ाइन किया गया है। LLM को टेक्स्ट और कोड के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे भाषा में पैटर्न और संबंधों को सीखने में सक्षम होते हैं। हालाँकि, यह प्रशिक्षण अनजाने में मॉडल को हानिकारक सामग्री के संपर्क में भी ला सकता है, जिसे बाद में उनके आउटपुट में दोहराया जा सकता है।
इस घटना से AI मॉडल के दुर्भावनापूर्ण उद्देश्यों के लिए दुरुपयोग होने की संभावना के बारे में चिंताएँ बढ़ गई हैं, जिसमें बाल यौन शोषण सामग्री का निर्माण भी शामिल है। AI सुरक्षा के क्षेत्र के विशेषज्ञों ने लंबे समय से इन तकनीकों के अनियंत्रित विकास और तैनाती से जुड़े जोखिमों के बारे में चेतावनी दी है। बर्लिन के हर्टी स्कूल में नैतिकता और प्रौद्योगिकी की प्रोफेसर डॉ. जोआना ब्रायसन ने कहा, "यह एक स्पष्ट अनुस्मारक है कि AI को इस तरह से शोषण से रोकने के लिए हमें मजबूत सुरक्षा उपायों की आवश्यकता है।" "डेवलपर्स की यह जिम्मेदारी है कि वे यह सुनिश्चित करें कि उनके मॉडल हानिकारक सामग्री उत्पन्न करने में सक्षम न हों।"
xAI ने अभी तक IWF के निष्कर्षों के बारे में कोई औपचारिक बयान जारी नहीं किया है। हालाँकि, एलन मस्क ने पहले AI को जिम्मेदारी और नैतिकता के साथ विकसित करने की अपनी प्रतिबद्धता जताई है। कंपनी की वेबसाइट AI सुरक्षा के प्रति अपने दृष्टिकोण की रूपरेखा बताती है, जिसमें हानिकारक सामग्री के उत्पादन को रोकने के उपाय शामिल हैं। यह देखा जाना बाकी है कि xAI, IWF की रिपोर्ट द्वारा उठाए गए विशिष्ट मुद्दों को हल करने के लिए क्या कदम उठाएगा।
IWF ऑनलाइन प्लेटफार्मों और कानून प्रवर्तन के साथ मिलकर पहचानी गई छवियों को हटाने और उनके आगे प्रसार को रोकने के लिए काम करना जारी रख रहा है। इस घटना से AI विकास और तैनाती के सख्त विनियमन की आवश्यकता के बारे में आगे बहस होने की संभावना है, खासकर उन क्षेत्रों में जहाँ कमजोर व्यक्तियों को नुकसान पहुँचने का खतरा है। यूके सरकार वर्तमान में AI द्वारा उत्पन्न चुनौतियों से निपटने के लिए नए कानून पर विचार कर रही है, जिसमें AI प्रणालियों की सुरक्षा और सुरक्षा सुनिश्चित करने के उपाय शामिल हैं।
Discussion
Join the conversation
Be the first to comment