इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ), जो यूके स्थित एक चैरिटी है और ऑनलाइन बाल यौन शोषण की छवियों की पहचान करने और उन्हें हटाने पर केंद्रित है, ने ऐसी छवियां मिलने की सूचना दी है जो "ऐसा प्रतीत होता है कि" एलन मस्क की xAI द्वारा विकसित कृत्रिम बुद्धिमत्ता मॉडल, ग्रोोक द्वारा उत्पन्न की गई हैं। आईडब्ल्यूएफ ने छवियों को संभावित रूप से बाल यौन शोषण सामग्री (सीएसएएम) युक्त होने के रूप में चिह्नित किया और संबंधित अधिकारियों को इसकी सूचना दी।
इस खोज से एआई मॉडल के दुर्भावनापूर्ण उद्देश्यों, विशेष रूप से सीएसएएम के निर्माण के लिए शोषण किए जाने की संभावना के बारे में महत्वपूर्ण चिंताएं बढ़ गई हैं। एआई सुरक्षा के क्षेत्र के विशेषज्ञों ने लंबे समय से तेजी से परिष्कृत जेनरेटिव एआई मॉडल से जुड़े जोखिमों के बारे में चेतावनी दी है, जिसमें हानिकारक सामग्री उत्पन्न करने के लिए उनका संभावित दुरुपयोग भी शामिल है।
xAI ने अभी तक आईडब्ल्यूएफ के निष्कर्षों के बारे में कोई औपचारिक बयान जारी नहीं किया है। हालांकि, कंपनी ने पहले एआई को जिम्मेदारी से विकसित करने और संभावित जोखिमों को कम करने की अपनी प्रतिबद्धता बताई है। ग्रोोक, जो वर्तमान में एक्स (पूर्व में ट्विटर) की प्रीमियम+ सेवा के ग्राहकों के लिए उपलब्ध है, एक बड़ा भाषा मॉडल है जिसे टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने, विभिन्न प्रकार की रचनात्मक सामग्री लिखने और सूचनात्मक तरीके से सवालों के जवाब देने के लिए डिज़ाइन किया गया है। यह अन्य एआई मॉडल से खुद को इस घोषित इरादे से अलग करता है कि यह "मसालेदार सवालों" के जवाब देगा जिनसे अन्य एआई बच सकते हैं।
आईडब्ल्यूएफ की प्रक्रिया में संभावित रूप से अवैध सामग्री की ऑनलाइन पहचान करने और उसे वर्गीकृत करने के लिए स्वचालित उपकरणों और मानव विश्लेषकों के संयोजन का उपयोग करना शामिल है। एक बार पहचान हो जाने के बाद, आईडब्ल्यूएफ सामग्री की सूचना इंटरनेट सेवा प्रदाताओं (आईएसपी) और अन्य संबंधित संगठनों को देता है, जो तब अपने प्लेटफार्मों से सामग्री को हटाने के लिए जिम्मेदार होते हैं। आईडब्ल्यूएफ कानून प्रवर्तन एजेंसियों के साथ सीएसएएम के उत्पादन और वितरण में शामिल व्यक्तियों की जांच और मुकदमा चलाने के लिए भी काम करता है।
यह घटना एआई तकनीक के दुरुपयोग को रोकने में शामिल चुनौतियों पर प्रकाश डालती है। ग्रोोक जैसे जेनरेटिव एआई मॉडल को डेटा की विशाल मात्रा पर प्रशिक्षित किया जाता है, और उन्हें हानिकारक सामग्री उत्पन्न करना सीखने से रोकना मुश्किल हो सकता है। इसके अलावा, एआई विकास की तीव्र गति के कारण नियामकों और नीति निर्माताओं के लिए विकसित हो रहे जोखिमों के साथ तालमेल बिठाना चुनौतीपूर्ण हो जाता है।
एआई सुरक्षा संस्थान में एक शोधकर्ता, एमिली कार्टर ने कहा, "यह पूरे एआई उद्योग के लिए एक वेक-अप कॉल है," जो एआई के सुरक्षित और जिम्मेदार विकास को बढ़ावा देने के लिए समर्पित एक गैर-लाभकारी संगठन है। "हमें एआई मॉडल को सीएसएएम और अन्य प्रकार की हानिकारक सामग्री बनाने के लिए उपयोग किए जाने से रोकने के लिए मजबूत सुरक्षा उपायों को विकसित करने में अधिक संसाधनों का निवेश करने की आवश्यकता है।"
जांच की वर्तमान स्थिति अस्पष्ट है। कानून प्रवर्तन एजेंसियां संभवतः छवियों की उत्पत्ति और ग्रोोक का उपयोग उन्हें उत्पन्न करने के लिए किस हद तक किया गया, इसकी जांच कर रही हैं। इस घटना से एआई सुरक्षा प्रोटोकॉल की और जांच होने की संभावना है और इससे जेनरेटिव एआई मॉडल के विकास और तैनाती को नियंत्रित करने वाले नए नियम बन सकते हैं। आईडब्ल्यूएफ स्थिति की निगरानी करना जारी रखेगा और इंटरनेट से किसी भी पहचानी गई सीएसएएम को हटाने के लिए संबंधित संगठनों के साथ काम करेगा।
Discussion
Join the conversation
Be the first to comment