इंटरनेट वॉच फ़ाउंडेशन (आईडब्ल्यूएफ), जो यूके स्थित एक चैरिटी है और ऑनलाइन बाल यौन शोषण की छवियों की पहचान करने और उन्हें हटाने पर केंद्रित है, ने ऐसी छवियों को खोजने की सूचना दी है जो "ऐसा प्रतीत होता है कि" एलन मस्क की xAI द्वारा विकसित कृत्रिम बुद्धिमत्ता मॉडल, ग्रोक द्वारा उत्पन्न की गई हैं। संगठन द्वारा जारी एक बयान के अनुसार, आईडब्ल्यूएफ ने xAI को उन छवियों के बारे में सूचित किया है जिनमें बाल यौन शोषण सामग्री (सीएसएएम) दिखाई गई है।
इस खोज से एआई मॉडल के दुर्भावनापूर्ण उद्देश्यों, विशेष रूप से सीएसएएम के निर्माण और प्रसार के लिए शोषण की संभावना के बारे में महत्वपूर्ण चिंताएं बढ़ गई हैं। यह घटना एआई डेवलपर्स द्वारा अपनी तकनीकों के दुरुपयोग को रोकने और शक्तिशाली जेनरेटिव एआई सिस्टम को तैनात करने से जुड़ी नैतिक जिम्मेदारियों का सामना करने वाली चुनौतियों को रेखांकित करती है।
नवंबर 2023 में लॉन्च किया गया ग्रोक, एक बड़ा भाषा मॉडल (एलएलएम) है जिसे सवालों के जवाब देने और टेक्स्ट उत्पन्न करने के लिए डिज़ाइन किया गया है। इसकी विशेषता इसकी संवादी लहजा और एक्स प्लेटफॉर्म (पूर्व में ट्विटर) के माध्यम से वास्तविक समय की जानकारी तक पहुंचने की क्षमता है। ग्रोक जैसे एलएलएम को टेक्स्ट और कोड के बड़े डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे मानव-जैसा टेक्स्ट उत्पन्न करने, भाषाओं का अनुवाद करने और विभिन्न प्रकार की रचनात्मक सामग्री बनाने में सक्षम होते हैं। हालांकि, यह प्रशिक्षण उन्हें संभावित रूप से हानिकारक सामग्री के संपर्क में भी लाता है, जो अनजाने में उनके आउटपुट में प्रतिबिंबित हो सकती है।
xAI के एक प्रवक्ता ने कहा, "हमें आईडब्ल्यूएफ की रिपोर्ट के बारे में पता है और हम इसे बहुत गंभीरता से ले रहे हैं।" "हम सक्रिय रूप से मामले की जांच कर रहे हैं और ग्रोक द्वारा हानिकारक सामग्री के उत्पादन को रोकने के लिए उपाय करने के लिए प्रतिबद्ध हैं।" कंपनी ने विचाराधीन उपायों के बारे में विशिष्ट विवरण नहीं दिया, लेकिन जिम्मेदार एआई विकास के प्रति अपने समर्पण पर जोर दिया।
आईडब्ल्यूएफ की भूमिका में इंटरनेट पर सीएसएएम के लिए स्कैन करना और इसे हटाने के लिए इंटरनेट सेवा प्रदाताओं और सोशल मीडिया प्लेटफॉर्म के साथ काम करना शामिल है। संगठन अवैध सामग्री की पहचान करने और वर्गीकृत करने के लिए स्वचालित उपकरणों और मानव समीक्षकों के संयोजन का उपयोग करता है। उनकी निष्कर्षों को कानून प्रवर्तन एजेंसियों और प्रौद्योगिकी कंपनियों को सूचित किया जाता है।
यह घटना एआई के विनियमन और इसके दुरुपयोग को रोकने के लिए मजबूत सुरक्षा उपायों की आवश्यकता के आसपास व्यापक बहस को उजागर करती है। विशेषज्ञों का तर्क है कि एआई डेवलपर्स को विकास जीवनचक्र के दौरान सुरक्षा और नैतिक विचारों को प्राथमिकता देनी चाहिए, जिसमें सामग्री फ़िल्टर लागू करना, मॉडल आउटपुट की निगरानी करना और संभावित जोखिमों की पहचान करने और उनका समाधान करने के लिए आईडब्ल्यूएफ जैसे संगठनों के साथ सहयोग करना शामिल है।
संभावित रूप से एआई-जनित सीएसएएम की खोज का पूरे तकनीकी उद्योग के लिए भी निहितार्थ है। यह अन्य एआई डेवलपर्स पर अपने मॉडलों से जुड़े जोखिमों को सक्रिय रूप से संबोधित करने और सामग्री मॉडरेशन तकनीकों को बेहतर बनाने के लिए अनुसंधान और विकास में निवेश करने का दबाव डालता है। यह घटना नियामकों और नीति निर्माताओं से बढ़ी हुई जांच का कारण भी बन सकती है, जिसके परिणामस्वरूप एआई प्रौद्योगिकियों के विकास और तैनाती पर सख्त नियम लागू हो सकते हैं।
ग्रोक-जनित छवियों की जांच जारी है। आईडब्ल्यूएफ कंपनी के भविष्य की घटनाओं के जोखिम को कम करने के प्रयासों का समर्थन करने और आगे की जानकारी प्रदान करने के लिए xAI के साथ काम कर रहा है। इस जांच के परिणाम का एआई सुरक्षा और विनियमन के भविष्य के लिए महत्वपूर्ण निहितार्थ हो सकता है।
Discussion
Join the conversation
Be the first to comment