ब्रिटेन के संचार नियामक, ऑफ़कॉम ने औपचारिक रूप से एक्स (X), जिसे पहले ट्विटर के नाम से जाना जाता था, से इस बारे में जानकारी मांगी है कि उसकी ग्रोक्क (Grok) एआई मॉडल बच्चों की यौन छवियों को उत्पन्न कर रही है। यह अनुरोध कृत्रिम बुद्धिमत्ता के संभावित दुरुपयोग से हानिकारक सामग्री बनाने और तेजी से विकसित हो रही एआई प्रौद्योगिकियों को विनियमित करने की चुनौतियों के बारे में बढ़ती चिंताओं के बाद आया है।
नियामक की जांच इस बात पर केंद्रित है कि क्या एक्स (X) ऐसी छवियों के निर्माण और प्रसार को रोकने के लिए पर्याप्त कदम उठा रहा है, और क्या बच्चों की सुरक्षा के लिए उसके सुरक्षा तंत्र पर्याप्त हैं। ऑफ़कॉम के पास उन कंपनियों पर जुर्माना लगाने का अधिकार है जो उपयोगकर्ताओं को हानिकारक सामग्री से बचाने में विफल रहती हैं, और यह जांच यूके कानून के साथ एक्स (X) के अनुपालन के बारे में गंभीर चिंता का संकेत देती है।
ऑफ़कॉम के एक प्रवक्ता ने कहा, "हम इस तरह से एआई मॉडल के दुरुपयोग की संभावना को लेकर बहुत चिंतित हैं।" "हमने एक्स (X) से उनके ग्रोक्क (Grok) एआई मॉडल का उपयोग करके बच्चों की यौन छवियों के निर्माण और वितरण को रोकने के लिए उनके द्वारा किए गए उपायों के बारे में विस्तृत जानकारी प्रदान करने के लिए कहा है।"
ग्रोक्क (Grok), एक्स (X) का एआई चैटबॉट, एक बड़ा भाषा मॉडल (एलएलएम) है, जो एक प्रकार की एआई है जिसे मानव जैसी पाठ उत्पन्न करने, भाषाओं का अनुवाद करने और सवालों के जवाब देने के लिए विशाल मात्रा में पाठ डेटा पर प्रशिक्षित किया जाता है। एलएलएम उस डेटा से पैटर्न सीखते हैं जिस पर उन्हें प्रशिक्षित किया जाता है, और यदि उस डेटा में हानिकारक सामग्री शामिल है, तो मॉडल अनजाने में उन नुकसानों को पुन: उत्पन्न या बढ़ा सकता है। इस मामले में, चिंताएं बढ़ गई हैं कि ग्रोक्क (Grok) ऐसी छवियां उत्पन्न कर सकता है जो बच्चों का शोषण, दुर्व्यवहार या खतरे में डालती हैं।
एआई मॉडल को हानिकारक सामग्री उत्पन्न करने से रोकना एक जटिल चुनौती है। एआई डेवलपर प्रशिक्षण डेटा को फ़िल्टर करने, सुरक्षा गार्डरेल लागू करने और मॉडल आउटपुट की निगरानी करने जैसी विभिन्न तकनीकों का उपयोग दुरुपयोग के जोखिम को कम करने के लिए करते हैं। हालांकि, ये तकनीकें हमेशा अचूक नहीं होती हैं, और दृढ़ निश्चयी उपयोगकर्ता कभी-कभी उन्हें दरकिनार करने के तरीके खोज सकते हैं। इसे अक्सर एआई को "जेलब्रेकिंग" करना कहा जाता है।
ऑक्सफोर्ड विश्वविद्यालय में एआई नैतिकता शोधकर्ता डॉ. अन्या शर्मा बताती हैं, "यह एक निरंतर हथियारों की दौड़ है।" "जैसे-जैसे डेवलपर सुरक्षा तंत्र में सुधार करते हैं, उपयोगकर्ता उन्हें बायपास करने के नए तरीके खोजते हैं। हमें एक बहुआयामी दृष्टिकोण की आवश्यकता है जिसमें तकनीकी समाधान, नैतिक दिशानिर्देश और मजबूत विनियमन शामिल हों।"
यह घटना एआई विकास के व्यापक सामाजिक निहितार्थों पर प्रकाश डालती है। जैसे-जैसे एआई मॉडल अधिक शक्तिशाली और सुलभ होते जाते हैं, दुरुपयोग की संभावना बढ़ जाती है। इससे एआई डेवलपर्स की जिम्मेदारी, सरकारी विनियमन की भूमिका और एआई के जोखिमों और लाभों के बारे में सार्वजनिक शिक्षा की आवश्यकता के बारे में सवाल उठते हैं।
एक्स (X) ने ऑफ़कॉम के अनुरोध को स्वीकार किया है और कहा है कि वह जांच में पूरी तरह से सहयोग कर रहा है। कंपनी ने सुरक्षा के प्रति अपनी प्रतिबद्धता और अपने एआई मॉडल के दुरुपयोग को रोकने के प्रयासों पर भी जोर दिया है।
एक्स (X) के एक बयान में कहा गया है, "हम इन चिंताओं को बहुत गंभीरता से लेते हैं।" "हम अपनी सुरक्षा उपायों को बेहतर बनाने और हानिकारक सामग्री के निर्माण को रोकने के लिए लगातार काम कर रहे हैं। हम ऑफ़कॉम की जांच में पूरी तरह से सहयोग कर रहे हैं और उन्हें वह सभी जानकारी प्रदान करेंगे जिसकी उन्हें आवश्यकता है।"
ऑफ़कॉम की जांच जारी है, और नियामक द्वारा उचित समय पर अपने निष्कर्ष प्रकाशित करने की उम्मीद है। जांच के परिणाम एक्स (X) और अन्य एआई डेवलपर्स के लिए महत्वपूर्ण निहितार्थ हो सकते हैं, जिससे संभावित रूप से सख्त नियम और एआई सुरक्षा प्रथाओं की अधिक जांच हो सकती है। यह मामला एआई के विकास और तैनाती को नियंत्रित करने के लिए एक व्यापक ढांचे की तत्काल आवश्यकता को रेखांकित करता है, यह सुनिश्चित करता है कि इसका उपयोग जिम्मेदारी और नैतिकता के साथ किया जाए।
Discussion
Join the conversation
Be the first to comment