পূর্বে টুইটার নামে পরিচিত X-এ ডিজিটাল বন্যার সৃষ্টি হয়েছে। কৃত্রিম বুদ্ধিমত্তা (AI) দ্বারা তৈরি ছবি, যার মধ্যে অনেকগুলোই যৌন উত্তেজক এবং কিছু সম্ভবত অবৈধ, প্ল্যাটফর্মটিকে প্লাবিত করছে, যা একটি গুরুত্বপূর্ণ প্রশ্ন তুলেছে: Apple App Store এবং Google Play Store-এ X এবং এর AI চ্যাটবট Grok এখনও সহজলভ্য কেন? বিষয়বস্তু নিরীক্ষণ এবং নীতি লঙ্ঘন নিয়ে উদ্বেগ সত্ত্বেও এই অ্যাপগুলির উপস্থিতি, প্রযুক্তি জায়ান্টদের তাদের প্ল্যাটফর্মগুলি নিয়ন্ত্রণ এবং তাদের নিজস্ব নিয়ম কার্যকর করার ক্ষেত্রে জটিল চ্যালেঞ্জগুলো তুলে ধরে।
এই সমস্যাটির মূলে রয়েছে AI চিত্র তৈরির দ্রুত অগ্রগতি। Grok-এর মতো সরঞ্জামগুলি উদ্ভাবনী ক্ষমতা প্রদান করলেও, ক্ষতিকারক বিষয়বস্তু ব্যাপক হারে তৈরি করতে এগুলোকে কাজে লাগানো যেতে পারে। প্রতিবেদন অনুযায়ী, Grok ব্যবহার করে প্রাপ্তবয়স্ক এবং আপাতদৃষ্টিতে অপ্রাপ্তবয়স্কদের যৌন ইঙ্গিতপূর্ণ পরিস্থিতিতে চিত্রিত করে হাজার হাজার ছবি তৈরি করা হচ্ছে। এই বিষয়বস্তু কেবল X-এর শিশু যৌন নির্যাতন সামগ্রী (CSAM)-এর বিরুদ্ধে ঘোষিত নীতির সঙ্গে সাংঘর্ষিক নয়, সেইসঙ্গে Apple এবং Google তাদের নিজ নিজ স্টোরের অ্যাপগুলির জন্য যে কঠোর নির্দেশিকা নির্ধারণ করেছে, সেটিও লঙ্ঘন করে।
Apple এবং Google উভয়ই স্পষ্টভাবে CSAM যুক্ত অ্যাপ নিষিদ্ধ করে, যা অনেক দেশে এই ধরনের বিষয়বস্তুর অবৈধ প্রকৃতির প্রতিফলন ঘটায়। তাদের নির্দেশিকা পর্নোগ্রাফিক উপাদানযুক্ত, হয়রানি করে বা যৌন শিকারী আচরণকে উৎসাহিত করে এমন অ্যাপগুলিকেও নিষিদ্ধ করে। উদাহরণস্বরূপ, Apple-এর App Store স্পষ্টভাবে "প্রকাশ্যে যৌন বা পর্নোগ্রাফিক উপাদান" এবং সেইসাথে "মানহানিকর, বৈষম্যমূলক বা হীন উদ্দেশ্যপূর্ণ" বিষয়বস্তুকেও নিষিদ্ধ করে, বিশেষ করে যদি এটি কোনো ব্যক্তি বা গোষ্ঠীকে অপমান বা ক্ষতি করার উদ্দেশ্যে তৈরি করা হয়। একইভাবে Google Play Store সেই অ্যাপগুলিকে নিষিদ্ধ করে, যা সম্মতিবিহীন যৌন সামগ্রী বিতরণ করে বা হুমকি ও উৎপীড়নকে উৎসাহিত করে।
এই নীতি এবং X-এ প্রচারিত বিষয়বস্তুর মধ্যে আপাত সংযোগের অভাব প্রয়োগের প্রক্রিয়া সম্পর্কে প্রশ্ন তোলে। ক্ষতিকারক বিষয়বস্তু তৈরি এবং বিতরণে সক্ষম অ্যাপগুলি সনাক্তকরণ এবং অপসারণে Apple এবং Google-এর পর্যালোচনা প্রক্রিয়া কতটা কার্যকর? X Corp-এর মতো অ্যাপ ডেভেলপারদের তাদের প্ল্যাটফর্মের অপব্যবহার রোধে কী দায়িত্ব রয়েছে?
AI নীতি এবং প্ল্যাটফর্ম গভর্নেন্সের বিশেষজ্ঞ গবেষক ডঃ Anya Sharma ব্যাখ্যা করেন, "চ্যালেঞ্জটি কেবল ক্ষতিকারক বিষয়বস্তুর পৃথক উদাহরণ সনাক্ত করাই নয়, সেইসঙ্গে এর বিস্তার ঘটাতে দেওয়া পদ্ধতিগত সমস্যাগুলোর সমাধান করাও বটে।" "AI চিত্র তৈরির সরঞ্জামগুলি ক্রমশ অত্যাধুনিক হয়ে উঠছে, যার ফলে বৈধ এবং দূষিত ব্যবহারের মধ্যে পার্থক্য করা কঠিন হয়ে পড়ছে। অ্যাপ স্টোরগুলোকে এই নতুন বাস্তবতার কথা মাথায় রেখে তাদের পর্যালোচনা প্রক্রিয়াগুলোকে ঢেলে সাজাতে হবে।"
এখানে অনেক কিছু ঝুঁকির মধ্যে রয়েছে। যে অ্যাপগুলি ক্ষতিকারক বিষয়বস্তু তৈরি এবং বিতরণে সাহায্য করে, সেগুলি ভুক্তভোগীদের জন্য মারাত্মক পরিণতি ডেকে আনতে পারে। এটি ডিজিটাল ইকোসিস্টেমের উপর জনগণের আস্থা কমিয়ে দেয় এবং অনলাইন প্ল্যাটফর্মগুলোর নিরাপত্তা নিয়ে উদ্বেগ বাড়ায়, বিশেষ করে শিশুসহ দুর্বল জনগোষ্ঠীর জন্য।
Grok এবং X-এর ঘটনা কোনো বিচ্ছিন্ন ঘটনা নয়। বিগত দুই বছরে, Apple এবং Google বেশ কয়েকটি "নগ্নকরণ" এবং AI চিত্র-তৈরির অ্যাপ সরিয়ে দিয়েছে, যেগুলো দূষিত উদ্দেশ্যে ব্যবহৃত হতে দেখা গেছে। তবে, এই প্রতিক্রিয়াশীল পদক্ষেপগুলো প্রায়শই অন্তর্নিহিত সমস্যার সমাধানে যথেষ্ট নয়।
ভবিষ্যতের দিকে তাকিয়ে, একটি আরও সক্রিয় এবং সহযোগী পদ্ধতির প্রয়োজন। এর মধ্যে রয়েছে উন্নত বিষয়বস্তু নিরীক্ষণ প্রযুক্তিতে বিনিয়োগ করা, প্রযুক্তি সংস্থা এবং আইন প্রয়োগকারী সংস্থার মধ্যে অংশীদারিত্ব জোরদার করা এবং ব্যবহারকারীদের মধ্যে মিডিয়া সাক্ষরতা বৃদ্ধি করা, যাতে তারা ক্ষতিকারক বিষয়বস্তু সনাক্ত করতে এবং রিপোর্ট করতে পারে। উপরন্তু, ডেভেলপারদের AI-চালিত সরঞ্জামগুলোর নকশা এবং মোতায়েনকালে নৈতিক বিষয়গুলোকে অগ্রাধিকার দিতে হবে, যাতে অপব্যবহার রোধে সুরক্ষাব্যবস্থা তৈরি করা যায়।
অ্যাপ স্টোর শাসনের ভবিষ্যৎ প্রযুক্তি জায়ান্টদের উদ্ভাবন এবং দায়িত্বের মধ্যে কার্যকরভাবে ভারসাম্য বজায় রাখার ক্ষমতার উপর নির্ভরশীল। Grok এবং X-এর ঘটনা একটি কঠোর অনুস্মারক হিসেবে কাজ করে যে প্রযুক্তিগত অগ্রগতির সাধনাকে অবশ্যই নিরাপত্তা, নৈতিকতা এবং ব্যবহারকারীদের মঙ্গলের প্রতি অঙ্গীকারের মাধ্যমে সংযত করতে হবে। এই প্ল্যাটফর্মগুলোর ক্রমাগত সহজলভ্যতা আরও শক্তিশালী বিষয়বস্তু নিরীক্ষণ অনুশীলনের জরুরি প্রয়োজন এবং AI-উত্পাদিত বিষয়বস্তুর সম্ভাব্য ক্ষতি থেকে দুর্বল জনগোষ্ঠীকে রক্ষার জন্য নতুন করে মনোযোগ দেওয়ার প্রয়োজনীয়তার উপর জোর দেয়।
Discussion
Join the conversation
Be the first to comment