ब्रिटेन के संचार नियामक, ऑफ़कॉम ने औपचारिक रूप से X (पूर्व में ट्विटर) से इस बारे में जानकारी मांगी है कि क्या उसका ग्रोक्क AI मॉडल बच्चों की यौन छवियों को उत्पन्न कर रहा है। यह अनुरोध जेनरेटिव AI तकनीकों के संभावित दुरुपयोग और हानिकारक सामग्री बनाने की उनकी क्षमता के बारे में बढ़ती चिंताओं के बाद आया है।
नियामक उन विशिष्ट सुरक्षा उपायों पर विवरण मांग रहा है जो X ने ग्रोक्क को ऐसी छवियां बनाने से रोकने के लिए लागू किए हैं, साथ ही दुरुपयोग के किसी भी उदाहरण का पता लगाने और हटाने के लिए क्या उपाय किए गए हैं। ऑफ़कॉम की जांच AI डेवलपर्स की बढ़ती जांच और तेजी से परिष्कृत AI मॉडल से जुड़े जोखिमों को कम करने की उनकी जिम्मेदारी को रेखांकित करती है।
जेनरेटिव AI, जैसे ग्रोक्क, मौजूदा डेटा से नई सामग्री बनाने के लिए जटिल एल्गोरिदम का उपयोग करता है, जो अक्सर डीप लर्निंग न्यूरल नेटवर्क पर आधारित होते हैं। इन मॉडलों को छवियों, पाठ और अन्य मीडिया के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे यथार्थवादी और अक्सर अविभाज्य आउटपुट उत्पन्न करने में सक्षम होते हैं। हालाँकि, यह क्षमता दुर्भावनापूर्ण अभिनेताओं को डीपफेक बनाने, गलत सूचना फैलाने और, जैसा कि इस मामले में आरोप लगाया गया है, बाल यौन शोषण सामग्री (CSAM) उत्पन्न करने के अवसर भी प्रस्तुत करती है।
ऑफ़कॉम के एक प्रवक्ता ने कहा, "हम AI के हानिकारक सामग्री, विशेष रूप से बच्चों का शोषण करने वाली सामग्री बनाने के लिए उपयोग किए जाने की संभावना के बारे में गहराई से चिंतित हैं।" "हम इन जोखिमों को दूर करने और अपने उपयोगकर्ताओं की सुरक्षा सुनिश्चित करने के लिए वे क्या कदम उठा रहे हैं, यह समझने के लिए X के साथ जुड़ रहे हैं।"
X ने ऑफ़कॉम के अनुरोध को स्वीकार किया है और कहा है कि वह जांच में पूरी तरह से सहयोग कर रहा है। कंपनी का कहना है कि उसके पास CSAM के उत्पादन और वितरण को प्रतिबंधित करने के लिए सख्त नीतियां हैं और वह सक्रिय रूप से अपने AI सुरक्षा उपायों को बेहतर बनाने के लिए काम कर रही है।
यह घटना AI की तेजी से प्रगति से उत्पन्न व्यापक सामाजिक चुनौतियों पर प्रकाश डालती है। जैसे-जैसे AI मॉडल अधिक शक्तिशाली और सुलभ होते जाते हैं, दुरुपयोग की संभावना बढ़ जाती है, जिसके लिए मजबूत नियामक ढांचे और नैतिक दिशानिर्देशों की आवश्यकता होती है। विशेषज्ञ AI सुरक्षा में चल रहे अनुसंधान और हानिकारक सामग्री के निर्माण का पता लगाने और रोकने के लिए उपकरणों के विकास की आवश्यकता पर जोर देते हैं।
ऑक्सफोर्ड विश्वविद्यालय में AI नैतिकता में विशेषज्ञता रखने वाली शोधकर्ता डॉ. अन्या शर्मा ने कहा, "यह AI शासन के लिए एक महत्वपूर्ण क्षण है।" "हमें जवाबदेही की स्पष्ट रेखाएँ स्थापित करने और यह सुनिश्चित करने की आवश्यकता है कि AI डेवलपर्स को उनकी तकनीकों से होने वाले संभावित नुकसान के लिए जिम्मेदार ठहराया जाए।"
ऑफ़कॉम की जांच के परिणाम का यूके और उससे आगे AI के विनियमन के लिए महत्वपूर्ण प्रभाव पड़ सकता है। इससे मौजूदा कानूनों का सख्त प्रवर्तन और विशेष रूप से जेनरेटिव AI के दुरुपयोग को लक्षित करने वाले नए नियमों का विकास हो सकता है। जांच चल रही है, और ऑफ़कॉम से आने वाले महीनों में अपने निष्कर्ष जारी करने की उम्मीद है।
Discussion
Join the conversation
Be the first to comment