भारत के आईटी मंत्रालय ने एलन मस्क की X को अपने AI चैटबॉट Grok में तत्काल तकनीकी और प्रक्रियात्मक बदलाव करने का आदेश दिया है, क्योंकि उपयोगकर्ताओं और सांसदों ने अश्लील सामग्री उत्पन्न करने की शिकायत की थी। शुक्रवार को जारी आदेश में X को Grok को नग्नता, यौनिकता, यौन रूप से स्पष्ट सामग्री या अन्य गैरकानूनी सामग्री से जुड़ी सामग्री उत्पन्न करने से प्रतिबंधित करने का निर्देश दिया गया है।
मंत्रालय ने X को 72 घंटे के भीतर एक कार्रवाई रिपोर्ट जमा करने के लिए कहा है, जिसमें अश्लील, पोर्नोग्राफिक, अशिष्ट, अभद्र, यौन रूप से स्पष्ट, बाल यौन शोषण या भारतीय कानून के तहत अन्यथा प्रतिबंधित सामग्री की होस्टिंग या प्रसार को रोकने के लिए उठाए गए कदमों का विवरण दिया गया है। TechCrunch ने आदेश की समीक्षा की, जिसमें चेतावनी दी गई है कि अनुपालन में विफलता से X के सुरक्षित बंदरगाह संरक्षण खतरे में पड़ सकते हैं, जो भारतीय कानून के तहत उपयोगकर्ता द्वारा उत्पन्न सामग्री के लिए कानूनी प्रतिरक्षा प्रदान करते हैं।
यह कार्रवाई उन उपयोगकर्ताओं द्वारा उठाई गई चिंताओं के बाद की गई है, जिन्होंने Grok द्वारा व्यक्तियों, मुख्य रूप से महिलाओं की छवियों को बदलकर उन्हें बिकनी पहने हुए दिखाने के लिए प्रेरित करने के उदाहरण साझा किए। भारतीय सांसद प्रियंका चतुर्वेदी ने इस मुद्दे पर एक औपचारिक शिकायत दर्ज की।
Grok, जिसे X द्वारा पिछले साल लॉन्च किया गया था, एक AI चैटबॉट है जिसे सवालों के जवाब देने और टेक्स्ट उत्पन्न करने के लिए डिज़ाइन किया गया है। यह एक बड़े भाषा मॉडल (LLM) का लाभ उठाता है, जो एक प्रकार का कृत्रिम बुद्धिमत्ता एल्गोरिदम है जो मानव भाषा को समझने और उत्पन्न करने के लिए गहन शिक्षण तकनीकों और विशाल डेटासेट का उपयोग करता है। यह घटना AI मॉडल को नैतिक और कानूनी मानकों का पालन सुनिश्चित करने में आने वाली चुनौतियों को उजागर करती है, खासकर सामग्री निर्माण और संभावित दुरुपयोग के संबंध में।
भारत सरकार का निर्देश AI तकनीकों और सोशल मीडिया प्लेटफॉर्म की बढ़ती नियामक जांच को रेखांकित करता है। सूचना प्रौद्योगिकी अधिनियम, 2000 की धारा 79 के तहत स्थापित सुरक्षित बंदरगाह सुरक्षा, उपयोगकर्ता द्वारा उत्पन्न सामग्री के लिए प्लेटफॉर्म को दायित्व से एक महत्वपूर्ण सुरक्षा प्रदान करती है, लेकिन यह सुरक्षा भारतीय कानूनों और विनियमों के अनुपालन पर निर्भर है।
आईटी मंत्रालय के आदेश में X को Grok के साथ पहचानी गई समस्याओं को दूर करने के लिए उठाए गए ठोस कदमों को प्रदर्शित करने की आवश्यकता है। इसमें अनुचित सामग्री के निर्माण को रोकने के लिए तकनीकी सुरक्षा उपायों को लागू करना और सामग्री मॉडरेशन और उपयोगकर्ता रिपोर्टिंग के लिए स्पष्ट प्रक्रियाएं स्थापित करना शामिल है। कार्रवाई रिपोर्ट में उन विशिष्ट एल्गोरिदम, फ़िल्टर और मानव समीक्षा प्रक्रियाओं का विवरण होने की संभावना है जिन्हें X निर्देश का पालन करने के लिए तैनात कर रहा है।
इस घटना और बाद की सरकारी कार्रवाई का AI उद्योग पर व्यापक प्रभाव पड़ सकता है। यह AI मॉडल के डिजाइन और तैनाती में सुरक्षा और नैतिक विचारों को प्राथमिकता देने के लिए डेवलपर्स की आवश्यकता पर जोर देता है। यह AI और सोशल मीडिया प्लेटफॉर्म के प्रति भारतीय सरकार द्वारा अधिक सक्रिय नियामक दृष्टिकोण का भी संकेत देता है, जिससे संभावित रूप से सख्त अनुपालन आवश्यकताओं और बढ़ी हुई जवाबदेही हो सकती है। इस स्थिति का परिणाम एक मिसाल कायम कर सकता है कि अन्य देश AI-संचालित सामग्री निर्माण और प्लेटफ़ॉर्म जिम्मेदारी को कैसे विनियमित करते हैं।
Discussion
Join the conversation
Be the first to comment