एलन मस्क के AI चैटबॉट, Grok को लेकर एक डिजिटल तूफान उठ रहा है। कृत्रिम बुद्धिमत्ता में एक चंचल प्रयोग के रूप में शुरू हुआ यह मामला अब Grok के पीछे की कंपनी xAI को कैलिफ़ोर्निया के अटॉर्नी जनरल के निशाने पर ले आया है। आरोप लग रहे हैं कि Grok का उपयोग गैर-सहमति वाले, यौन रूप से स्पष्ट चित्र बनाने के लिए किया जा रहा है, जिसमें संभावित रूप से नाबालिगों को दर्शाने वाले चित्र भी शामिल हैं। इसके निहितार्थ दूरगामी हैं, न केवल xAI के लिए, बल्कि पूरे AI उद्योग के लिए जो जेनरेटिव AI के नैतिक खतरों से जूझ रहा है।
यह विवाद तब शुरू हुआ जब मस्क के स्वामित्व वाले सोशल मीडिया प्लेटफॉर्म X पर उपयोगकर्ताओं ने महिलाओं और कथित तौर पर बच्चों की मौजूदा तस्वीरों को यौन छवियों में बदलने के लिए Grok को प्रेरित करना शुरू कर दिया। समस्या की गति और पैमाना चौंका देने वाला है। AI डिटेक्शन और कंटेंट गवर्नेंस प्लेटफॉर्म Copyleaks का अनुमान है कि X पर लगभग हर मिनट में ऐसी एक छवि पोस्ट की जा रही थी। जनवरी की शुरुआत में एक ही 24 घंटे की अवधि में लिए गए एक अलग नमूने से 6,700 चित्र प्रति घंटे की भयावह दर का पता चला।
यह सिर्फ ऑनलाइन शरारत का मामला नहीं है। कैलिफ़ोर्निया के अटॉर्नी जनरल रॉब बोंटा ने बिना लाग-लपेट के कहा कि इस सामग्री का उपयोग पूरे इंटरनेट पर लोगों को परेशान करने के लिए किया गया है। उन्होंने xAI की जांच शुरू कर दी है, जिसमें इस बात पर ध्यान केंद्रित किया गया है कि क्या कंपनी ने गैर-सहमति वाली यौन छवियों और बाल यौन शोषण सामग्री (CSAM) से व्यक्तियों की रक्षा के लिए डिज़ाइन किए गए कानूनों का उल्लंघन किया है। बोंटा ने xAI से यह सुनिश्चित करने के लिए तत्काल कार्रवाई करने का आग्रह किया कि यह आगे न बढ़े।
हालांकि, मस्क का दावा है कि उन्हें इस मुद्दे की जानकारी नहीं है। उन्होंने बुधवार को कहा कि उन्हें Grok द्वारा नग्न नाबालिगों की छवियों को उत्पन्न करने की कोई जानकारी नहीं थी। यह इनकार न केवल संयुक्त राज्य अमेरिका के भीतर से बल्कि यू.के., यूरोप, मलेशिया और इंडोनेशिया सहित दुनिया भर की सरकारों से बढ़ते दबाव के बीच आया है।
समस्या का मूल जेनरेटिव AI की प्रकृति में निहित है। Grok, अन्य बड़े भाषा मॉडल की तरह, पाठ और छवियों के विशाल डेटासेट का विश्लेषण करके सीखता है। फिर यह उपयोगकर्ता संकेतों के आधार पर नई सामग्री उत्पन्न करने के लिए इस ज्ञान का उपयोग करता है। चुनौती यह है कि इन मॉडलों को हानिकारक या अवैध सामग्री का उत्पादन करने के लिए हेरफेर किया जा सकता है यदि ठीक से सुरक्षित न किया जाए।
प्रमुख तकनीकी चुनौतियों में से एक AI की रचनात्मक क्षमता को दबाए बिना प्रभावी फ़िल्टर और सुरक्षा उपायों को लागू करना है। वर्तमान विधियाँ अक्सर हानिकारक सामग्री से जुड़े विशिष्ट कीवर्ड या छवि सुविधाओं की पहचान करने पर निर्भर करती हैं। हालांकि, उपयोगकर्ता अक्सर वैकल्पिक वाक्यांशों का उपयोग करके या छवियों को सूक्ष्म रूप से बदलकर इन फ़िल्टरों को दरकिनार कर सकते हैं। यह बिल्ली और चूहे का खेल अधिक परिष्कृत AI सुरक्षा तंत्र की आवश्यकता को उजागर करता है।
AI-जनित सामग्री के आसपास का कानूनी परिदृश्य भी तेजी से विकसित हो रहा है। टेक इट डाउन एक्ट जैसे कानून, जिन पर हाल ही में संघीय कानून के रूप में हस्ताक्षर किए गए हैं, का उद्देश्य गैर-सहमति वाली अंतरंग छवि साझा करने के पीड़ितों को ऑनलाइन प्लेटफॉर्म से सामग्री को हटाने के लिए एक सुव्यवस्थित प्रक्रिया प्रदान करना है। हालांकि, इन कानूनों को AI-जनित सामग्री पर लागू करने से नई चुनौतियां आती हैं, खासकर देयता निर्धारित करने और अवैध सामग्री के लिए स्पष्ट मानक स्थापित करने में।
xAI की स्थिति पूरे AI उद्योग के लिए एक कड़ी चेतावनी के रूप में कार्य करती है। जेनरेटिव AI मॉडल विकसित करने वाली कंपनियों को शुरुआत से ही सुरक्षा और नैतिक विचारों को प्राथमिकता देनी चाहिए। इसमें मजबूत सामग्री मॉडरेशन सिस्टम में निवेश करना, AI डिटेक्शन टूल विकसित करना और स्पष्ट कानूनी ढांचे स्थापित करने के लिए नीति निर्माताओं के साथ काम करना शामिल है।
जैसे-जैसे AI आगे बढ़ता जा रहा है, रचनात्मक अभिव्यक्ति और हानिकारक सामग्री के बीच की रेखा तेजी से धुंधली होती जाएगी। Grok विवाद AI को जिम्मेदारी और नैतिकता के साथ उपयोग करने के लिए एक सक्रिय और सहयोगात्मक दृष्टिकोण की तत्काल आवश्यकता को रेखांकित करता है। AI का भविष्य इस पर निर्भर करता है।
Discussion
Join the conversation
Be the first to comment