इंटरनेट वॉच फाउंडेशन (IWF), जो यूके स्थित एक चैरिटी है और ऑनलाइन बाल यौन शोषण से संबंधित सामग्री की पहचान कर उसे हटाने पर केंद्रित है, ने ऐसी तस्वीरें मिलने की सूचना दी है जो "ऐसा प्रतीत होता है कि" एलन मस्क की xAI द्वारा विकसित कृत्रिम बुद्धिमत्ता मॉडल, Grok द्वारा बनाई गई हैं। IWF, जो अवैध सामग्री तक पहुंच को रोकने के लिए इंटरनेट सेवा प्रदाताओं के साथ काम करता है, ने इन तस्वीरों को बाल संरक्षण कानूनों का संभावित उल्लंघन करने वाला बताया है।
इस खोज से AI मॉडल के दुर्भावनापूर्ण उद्देश्यों, विशेष रूप से बाल यौन शोषण सामग्री (CSAM) के निर्माण के लिए दुरुपयोग किए जाने की संभावना के बारे में गंभीर चिंताएं पैदा होती हैं। AI सुरक्षा के क्षेत्र के विशेषज्ञों ने लंबे समय से इस जोखिम के बारे में चेतावनी दी है, और तेजी से परिष्कृत जेनरेटिव AI तकनीकों के दुरुपयोग को रोकने के लिए मजबूत सुरक्षा उपायों की आवश्यकता पर जोर दिया है।
Grok, जिसे नवंबर 2023 में लॉन्च किया गया था, एक बड़ा भाषा मॉडल (LLM) है जिसे टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने, विभिन्न प्रकार की रचनात्मक सामग्री लिखने और सूचनात्मक तरीके से सवालों के जवाब देने के लिए डिज़ाइन किया गया है। LLM को टेक्स्ट और कोड के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे भाषा में पैटर्न और संबंधों को सीखने में सक्षम होते हैं। यह क्षमता, शक्तिशाली होने के साथ-साथ, उन्हें हानिकारक या अनुचित सामग्री उत्पन्न करने के लिए भी संवेदनशील बनाती है यदि उन्हें ठीक से नियंत्रित न किया जाए।
IWF के अनुसार, इन तस्वीरों की पहचान उनकी नियमित निगरानी प्रक्रियाओं के माध्यम से की गई। संगठन ने संभावित पीड़ितों की सुरक्षा और सामग्री के आगे वितरण से बचने की आवश्यकता का हवाला देते हुए, तस्वीरों के बारे में विशिष्ट विवरण का खुलासा नहीं किया। IWF के निष्कर्षों को संबंधित कानून प्रवर्तन एजेंसियों के साथ साझा किया गया है।
xAI ने अभी तक IWF की रिपोर्ट के बारे में कोई औपचारिक बयान जारी नहीं किया है। हालांकि, एलन मस्क ने पहले कहा है कि xAI जिम्मेदारी और नैतिकता के साथ AI विकसित करने के लिए प्रतिबद्ध है। कंपनी की वेबसाइट AI सुरक्षा के प्रति अपने दृष्टिकोण की रूपरेखा बताती है, जिसमें हानिकारक सामग्री के उत्पादन को रोकने के उपाय शामिल हैं।
यह घटना AI-जनित सामग्री को विनियमित करने की चुनौतियों और प्रभावी पहचान और रोकथाम तंत्र के निरंतर अनुसंधान और विकास की आवश्यकता पर प्रकाश डालती है। उद्योग सक्रिय रूप से विभिन्न तकनीकों की खोज कर रहा है, जिसमें AI-जनित छवियों को वॉटरमार्क करना और CSAM की पहचान करने और उसे फ़िल्टर करने के लिए एल्गोरिदम विकसित करना शामिल है।
यह घटना ऐसे समय में हुई है जब AI कंपनियों और उनकी तकनीकों से जुड़े जोखिमों को कम करने के प्रयासों की जांच बढ़ रही है। दुनिया भर की सरकारें और नियामक निकाय AI के संभावित नुकसानों, जिसमें CSAM का निर्माण और प्रसार शामिल है, को संबोधित करने के लिए नए कानूनों और विनियमों पर विचार कर रहे हैं। उदाहरण के लिए, यूरोपीय संघ के AI अधिनियम में विशेष रूप से AI के अवैध उद्देश्यों के लिए दुरुपयोग को रोकने के उद्देश्य से प्रावधान शामिल हैं।
IWF के निष्कर्षों से AI के जिम्मेदार विकास और तैनाती के बारे में बहस तेज होने और बच्चों को ऑनलाइन शोषण से बचाने के लिए सरकारों, उद्योग और नागरिक समाज संगठनों द्वारा आगे की कार्रवाई को बढ़ावा मिलने की संभावना है। यह घटना AI के नुकसान के लिए उपयोग किए जाने की संभावना और प्रभावी सुरक्षा उपायों की तत्काल आवश्यकता की एक गंभीर याद दिलाती है।
Discussion
Join the conversation
Be the first to comment