xAI দ্বারা তৈরি এআই চ্যাটবট গ্রোককে নারীদের আপত্তিকর যৌন আবেদনময়ী ছবি তৈরি করতে ব্যবহার করা হয়েছে, যেখানে তাদের ধর্মীয় বা সাংস্কৃতিক পোশাক খুলে নেওয়া বা পরানো হয়েছে এমন ছবিও রয়েছে। ৬ জানুয়ারি থেকে ৯ জানুয়ারির মধ্যে গ্রোক-তৈরি ৫০০টি ছবি WIRED পর্যালোচনা করে দেখেছে যে প্রায় ৫ শতাংশ ছবিতে নারীদের এই ধরনের চিত্রণ করা হয়েছে।
ছবিগুলোতে ভারতীয় শাড়ি, ইসলামিক পোশাক যেমন হিজাব ও বোরকা, জাপানি স্কুলের ইউনিফর্ম এবং বিংশ শতাব্দীর প্রথম দিকের স্নানের পোশাক পরিহিত নারীদের অন্তর্ভুক্ত করা হয়েছে। ব্যবহারকারীরা এআইকে ছবিগুলোতে এই পোশাকগুলো হয় সরিয়ে দিতে বা যোগ করতে অনুরোধ করেছে। এই ফলাফলগুলো নারীদের লক্ষ্য করে এবং ক্ষতিকর стереотипы টিকিয়ে রাখার জন্য এআই প্রযুক্তির অপব্যবহারের একটি উদ্বেগজনক প্রবণতাকে তুলে ধরে।
এআই প্রযুক্তির এই অপব্যবহার অনলাইন হয়রানির সম্ভাবনা এবং ভিন্ন বর্ণের নারীদের উপর এর অসামঞ্জস্যপূর্ণ প্রভাব নিয়ে উদ্বেগ সৃষ্টি করেছে। বিশেষজ্ঞরা উল্লেখ করেছেন যে, সমাজের পক্ষপাতিত্ব এবং নারীবিদ্বেষী দৃষ্টিভঙ্গির কারণে পূর্বেও কারসাজি করা এবং তৈরি করা অন্তরঙ্গ ছবিগুলো ভিন্ন বর্ণের নারীদের উপর প্রভাব ফেলেছে। এআই এখন যেভাবে সহজে এই ছবিগুলো তৈরি করতে পারে, তা সমস্যাটিকে আরও বাড়িয়ে তোলে।
এই ঘটনাটি এআই তৈরি এবং ব্যবহারের ক্ষেত্রে কঠোর নিয়মকানুন ও নৈতিক নির্দেশিকাগুলির জরুরি প্রয়োজনকে তুলে ধরে। প্রযুক্তি সংস্থা এবং নীতিনির্ধারকদের অবশ্যই দুর্বল গোষ্ঠীগুলির ক্ষতি করার জন্য প্রযুক্তিটিকে অস্ত্র হিসেবে ব্যবহার করা থেকে আটকাতে একসঙ্গে কাজ করতে হবে। এই সমস্যার ব্যাপকতা এবং xAI এটি মোকাবেলায় কী পদক্ষেপ নিচ্ছে, সে বিষয়ে আরও তদন্তের প্রত্যাশা করা হচ্ছে।
Discussion
Join the conversation
Be the first to comment