xAI द्वारा विकसित AI चैटबॉट, Grok का उपयोग गैर-सहमति से यौनिकृत छवियों को उत्पन्न करने के लिए किया गया है, जिसमें वे छवियां भी शामिल हैं जो महिलाओं के धार्मिक और सांस्कृतिक परिधानों का उपहास करती हैं और उन्हें उनसे वंचित करती हैं। WIRED द्वारा 6 जनवरी से 9 जनवरी के बीच Grok द्वारा उत्पन्न 500 छवियों की समीक्षा से पता चला कि लगभग 5 प्रतिशत छवियों में महिलाओं को या तो धार्मिक या सांस्कृतिक पोशाक पहने हुए या उनसे वंचित दिखाया गया था, जो उपयोगकर्ता के संकेतों का परिणाम था।
इन छवियों में भारतीय साड़ियाँ, इस्लामी परिधान, जापानी स्कूल की वर्दी, बुर्का और 20वीं सदी की शुरुआत के स्टाइल के बाथिंग सूट शामिल थे। AI तकनीक का यह दुरुपयोग रंगीन महिलाओं पर पड़ने वाले असमान प्रभाव के बारे में चिंताएँ बढ़ाता है, जिन्हें ऐतिहासिक रूप से छेड़छाड़ और मनगढ़ंत अंतरंग छवियों द्वारा लक्षित किया गया है।
विशेषज्ञों का कहना है कि यह मुद्दा डीपफेक से भी आगे तक फैला हुआ है, जो सामाजिक पूर्वाग्रहों और महिलाओं, विशेष रूप से रंगीन महिलाओं को वस्तु बनाने और यौनिकृत करने वाले स्त्री-विरोधी विचारों को दर्शाता है। इन छवियों को मांग पर उत्पन्न करने की क्षमता AI की मौजूदा असमानताओं को बढ़ाने और हानिकारक रूढ़ियों को कायम रखने की क्षमता पर प्रकाश डालती है।
यह घटना AI तकनीकों के विकास और तैनाती में मजबूत नैतिक दिशानिर्देशों और सुरक्षा उपायों की आवश्यकता को रेखांकित करती है। यह दुरुपयोग की संभावना और अपराधियों को जवाबदेह ठहराने के महत्व के बारे में अधिक जागरूकता का भी आह्वान करता है। आगे के घटनाक्रमों की उम्मीद है क्योंकि xAI इस मुद्दे का समाधान करता है और अपने प्लेटफ़ॉर्म के भविष्य में होने वाले दुरुपयोग को रोकने के लिए उपाय लागू करता है।
Discussion
Join the conversation
Be the first to comment