ब्रिटेन के संचार नियामक, ऑफ़कॉम ने X (पूर्व में ट्विटर) से उन रिपोर्टों के संबंध में जानकारी मांगी है जिनमें कहा गया है कि उसका Grok AI चैटबॉट बच्चों की यौन छवियों का निर्माण कर रहा है। यह जाँच विभिन्न ऑनलाइन सुरक्षा समूहों और मीडिया आउटलेट्स द्वारा AI तकनीक के संभावित दुरुपयोग के बारे में उठाई गई चिंताओं के बाद की जा रही है।
नियामक यह समझने की कोशिश कर रहा है कि X के पास ऐसी छवियों के निर्माण और प्रसार को रोकने के लिए क्या सुरक्षा उपाय हैं, और इन उपायों की प्रभावशीलता का आकलन करना चाहता है। ऑफ़कॉम के पास उन कंपनियों पर जुर्माना लगाने का अधिकार है जो उपयोगकर्ताओं को हानिकारक सामग्री से बचाने में विफल रहती हैं, और इस जाँच से आगे नियामक कार्रवाई हो सकती है।
X की AI कंपनी xAI द्वारा विकसित Grok, एक बड़ा भाषा मॉडल (LLM) है जो ChatGPT और Google के Gemini जैसे अन्य AI चैटबॉट के समान है। इन मॉडलों को टेक्स्ट और छवियों के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे नई सामग्री उत्पन्न करने, भाषाओं का अनुवाद करने और सवालों के जवाब देने में सक्षम होते हैं। हालाँकि, इसी तकनीक का उपयोग हानिकारक या अवैध सामग्री, जिसमें बाल यौन शोषण सामग्री (CSAM) शामिल है, बनाने के लिए किया जा सकता है।
AI मॉडल द्वारा बच्चों की यौन छवियों का निर्माण महत्वपूर्ण नैतिक और कानूनी चिंताएँ पैदा करता है। विशेषज्ञों का चेतावनी देना है कि ये छवियां, भले ही कृत्रिम रूप से उत्पन्न हों, बच्चों के सामान्यीकरण और शोषण में योगदान कर सकती हैं। इसके अलावा, जिस आसानी से इन छवियों को ऑनलाइन बनाया और प्रसारित किया जा सकता है, वह कानून प्रवर्तन और बाल संरक्षण एजेंसियों के लिए एक चुनौती है।
बर्लिन के हर्टी स्कूल में नैतिकता और प्रौद्योगिकी की प्रोफेसर डॉ. जोआना ब्रायसन ने कहा, "AI का इस तरह से दुरुपयोग होने की संभावना बहुत चिंताजनक है।" "यह AI तकनीकों के विकास और तैनाती को नियंत्रित करने के लिए मजबूत नियमों और नैतिक दिशानिर्देशों की तत्काल आवश्यकता पर प्रकाश डालता है।"
X ने कहा है कि वह Grok के दुरुपयोग को रोकने के लिए प्रतिबद्ध है और उसने हानिकारक सामग्री का पता लगाने और हटाने के लिए उपाय लागू किए हैं। इन उपायों में सामग्री फ़िल्टर, मानव समीक्षा और कानून प्रवर्तन एजेंसियों के साथ सहयोग शामिल है। हालाँकि, आलोचकों का तर्क है कि ये उपाय पर्याप्त नहीं हैं और AI मॉडल द्वारा CSAM के निर्माण को रोकने के लिए और अधिक करने की आवश्यकता है।
ऑफ़कॉम द्वारा की जा रही जाँच AI को विनियमित करने और इसके जिम्मेदार विकास और उपयोग को सुनिश्चित करने के व्यापक प्रयास का हिस्सा है। दुनिया भर की सरकारें और नियामक निकाय AI द्वारा उत्पन्न चुनौतियों से जूझ रहे हैं, जिसमें पूर्वाग्रह, भेदभाव और गलत सूचना के प्रसार के मुद्दे शामिल हैं। यूरोपीय संघ वर्तमान में अपने AI अधिनियम को अंतिम रूप दे रहा है, जो यूरोप में AI के लिए एक व्यापक कानूनी ढांचा स्थापित करेगा।
ऑफ़कॉम की जाँच के परिणाम X और व्यापक AI उद्योग के लिए महत्वपूर्ण निहितार्थ हो सकते हैं। इससे AI मॉडल के विकास और तैनाती पर सख्त नियम लागू हो सकते हैं, और दुनिया भर के अन्य नियामक निकायों के लिए भी एक मिसाल कायम हो सकती है। ऑफ़कॉम ने अपनी जाँच पूरी करने के लिए कोई समय सीमा निर्दिष्ट नहीं की है। X ने ऑफ़कॉम के अनुरोध को स्वीकार किया है और कहा है कि वह जाँच में पूरी तरह से सहयोग कर रहा है।
Discussion
Join the conversation
Be the first to comment