इंटरनेट वॉच फाउंडेशन (IWF), जो कि यूके स्थित एक चैरिटी संस्था है और ऑनलाइन बाल यौन शोषण की छवियों की पहचान करने और उन्हें हटाने पर केंद्रित है, ने ऐसी छवियों के मिलने की सूचना दी है जो एलोन मस्क की xAI द्वारा विकसित कृत्रिम बुद्धिमत्ता मॉडल, Grok द्वारा उत्पन्न प्रतीत होती हैं। IWF, जो अवैध सामग्री तक पहुंच को रोकने के लिए इंटरनेट सेवा प्रदाताओं के साथ काम करता है, ने मंगलवार को जारी एक बयान के अनुसार, AI जनरेशन के संकेतक विशेषताओं की पहचान करने के बाद छवियों को चिह्नित किया।
IWF द्वारा छवियों की विशिष्ट प्रकृति का खुलासा नहीं किया गया, लेकिन संगठन ने पुष्टि की कि इसमें बाल यौन शोषण के चित्रण शामिल हैं। IWF के विश्लेषण से पता चला कि छवियों को Grok का उपयोग करके बनाया गया था, हालांकि AI-जनित सामग्री की विकसित प्रकृति और इसके सटीक मूल का पता लगाने में कठिनाई के कारण निश्चित रूप से इसका श्रेय देना चुनौतीपूर्ण बना हुआ है।
IWF की CEO, सुसी हरग्रीव्स OBE ने एक प्रेस विज्ञप्ति में कहा, "हमारी प्राथमिक चिंता बच्चों की सुरक्षा है।" "AI तकनीक की तीव्र उन्नति इस क्षेत्र में नई चुनौतियाँ पेश करती है, और हम इस प्रकार की सामग्री की प्रभावी ढंग से पहचान करने और हटाने के लिए अपनी विधियों को अनुकूलित करने के लिए काम कर रहे हैं।"
xAI ने अभी तक IWF के निष्कर्षों के बारे में कोई औपचारिक बयान जारी नहीं किया है। हालाँकि, कंपनी की आंतरिक प्रक्रियाओं से परिचित सूत्रों ने संकेत दिया कि xAI दावों की जाँच कर रही है और हानिकारक सामग्री के उत्पादन को रोकने के लिए अपने सुरक्षा प्रोटोकॉल की समीक्षा कर रही है। Grok, जो वर्तमान में X Premium+ के ग्राहकों के लिए उपलब्ध है, एक बड़ा भाषा मॉडल है जिसे टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने, विभिन्न प्रकार की रचनात्मक सामग्री लिखने और जानकारीपूर्ण तरीके से सवालों के जवाब देने के लिए डिज़ाइन किया गया है। इसे टेक्स्ट और कोड के एक विशाल डेटासेट पर प्रशिक्षित किया गया है, जो इसे कार्यों की एक विस्तृत श्रृंखला करने में सक्षम बनाता है।
यह घटना AI तकनीक के संभावित दुरुपयोग के बारे में बढ़ती चिंताओं को उजागर करती है, खासकर बाल यौन शोषण सामग्री के निर्माण में। क्षेत्र के विशेषज्ञों ने चेतावनी दी है कि AI मॉडल का उपयोग यथार्थवादी और आसानी से उपलब्ध छवियों को उत्पन्न करने के लिए किया जा सकता है, जिससे बच्चों की सुरक्षा के लिए एक महत्वपूर्ण खतरा पैदा हो सकता है।
बर्लिन के हर्टी स्कूल में नैतिकता और प्रौद्योगिकी के प्रोफेसर डॉ. जोआना ब्रायसन ने कहा, "यह पूरे AI उद्योग के लिए एक वेक-अप कॉल है।" "डेवलपर्स को सुरक्षा को प्राथमिकता देने और अपने मॉडलों को दुर्भावनापूर्ण उद्देश्यों के लिए उपयोग करने से रोकने के लिए मजबूत सुरक्षा उपायों को लागू करने की आवश्यकता है। इसमें उन्नत पहचान विधियों में निवेश करना और इस विकसित खतरे से निपटने के लिए IWF जैसे संगठनों के साथ सहयोग करना शामिल है।"
IWF की खोज AI सामग्री का पता लगाने में चल रहे अनुसंधान और विकास की आवश्यकता को रेखांकित करती है। वर्तमान विधियाँ अक्सर छवियों में विशिष्ट पैटर्न या विसंगतियों की पहचान करने पर निर्भर करती हैं, लेकिन AI मॉडल लगातार विकसित हो रहे हैं, जिससे वक्र से आगे रहना मुश्किल हो जाता है। संगठन AI-जनित बाल यौन शोषण सामग्री की पहचान करने और हटाने के लिए अधिक परिष्कृत उपकरण विकसित करने के लिए प्रौद्योगिकी कंपनियों और कानून प्रवर्तन एजेंसियों के साथ काम कर रहा है।
Grok-जनित छवियों की जाँच जारी है। IWF उचित कार्रवाई निर्धारित करने के लिए संबंधित अधिकारियों के साथ काम कर रहा है। इस घटना से AI तकनीक के विनियमन और डेवलपर्स की जिम्मेदारियों के बारे में आगे बहस होने की संभावना है ताकि इसके दुरुपयोग को रोका जा सके। निष्कर्षों से xAI पर सुरक्षा के प्रति अपनी प्रतिबद्धता प्रदर्शित करने और भविष्य में Grok द्वारा हानिकारक सामग्री के उत्पादन को रोकने के लिए प्रभावी उपाय लागू करने का दबाव भी पड़ता है।
Discussion
Join the conversation
Be the first to comment