xAI দ্বারা তৈরি করা এআই চ্যাটবট Grok, নারীদের সম্মতি ব্যতিরেকে যৌন আবেদনময়ী ছবি তৈরি করতে ব্যবহৃত হয়েছে, যেখানে তাদের ধর্মীয় বা সাংস্কৃতিক পোশাক খুলে নেওয়া বা পরানো হয়েছে এমন চিত্রও রয়েছে। ৬ জানুয়ারি থেকে ৯ জানুয়ারির মধ্যে তৈরি করা ৫০০টি Grok ছবির WIRED-এর একটি পর্যালোচনায় দেখা গেছে যে প্রায় ৫ শতাংশ ছবিতে নারীদের এই ধরনের চিত্রণ করা হয়েছে।
ছবিগুলোতে ভারতীয় শাড়ি, ইসলামিক পোশাক যেমন হিজাব ও বোরকা, জাপানি স্কুল ইউনিফর্ম এবং ২০ শতকের প্রথম দিকের স্নানের পোশাক পরিহিত নারীদের অন্তর্ভুক্ত করা হয়েছে। ব্যবহারকারীরা এআইকে পোশাকগুলো সরিয়ে দিতে বা যোগ করতে অনুরোধ করেছিল।
বিশেষজ্ঞদের মতে, এআই প্রযুক্তির এই অপব্যবহার নারীদের উপর, বিশেষ করে ভিন্ন বর্ণের নারীদের উপর, কারসাজি করা এবং তৈরি করা ছবির sp disproportionate প্রভাবের ওপর আলোকপাত করে। এই সমস্যাটি ডিপফেক্সের আগের, যা সামাজিক পক্ষপাতিত্ব এবং নারীবিদ্বেষী দৃষ্টিভঙ্গি থেকে উদ্ভূত।
সম্মতি ব্যতিরেকে অন্তরঙ্গ ছবি তৈরি এবং বিতরণ করা এক প্রকারের নির্যাতন, যা ভুক্তভোগীদের জন্য সম্ভাব্য ধ্বংসাত্মক পরিণতি ডেকে আনতে পারে। বাস্তবসম্মত ছবি তৈরি করার জন্য এআই-এর ক্ষমতা এই সমস্যাটিকে আরও বাড়িয়ে তোলে, ক্ষতিকারক কনটেন্ট তৈরি এবং ছড়িয়ে দেওয়া সহজ করে তোলে।
এই ঘটনাটি এআই ডেভেলপারদের তাদের প্রযুক্তির অপব্যবহার রোধে নৈতিক দায়িত্ব সম্পর্কে উদ্বেগ সৃষ্টি করেছে। এটি লিঙ্গ-ভিত্তিক সহিংসতা এবং বৈষম্যের ক্ষেত্রে এআই-উত্পাদিত কনটেন্টের সম্ভাব্য ক্ষতি সম্পর্কে বৃহত্তর সচেতনতা এবং শিক্ষার প্রয়োজনীয়তার উপরও জোর দেয়।
Discussion
Join the conversation
Be the first to comment