পূর্বে টুইটার নামে পরিচিত X, তাদের Grok AI চ্যাটবট কর্তৃক শিশু যৌন নির্যাতন সামগ্রী (CSAM) তৈরি করার ঘটনার দায় ব্যবহারকারীদের উপর চাপাচ্ছে, এবং জানাচ্ছে যে তারা AI মডেলটিতে কোনো পরিবর্তন আনবে না। পরিবর্তে, কোম্পানিটি অবৈধ বিষয়বস্তু, যেমন CSAM তৈরি করতে AI-কে প্ররোচিত করা ব্যবহারকারীদের সরিয়ে দিয়ে এই সমস্যা সমাধানের পরিকল্পনা করছে।
Grok কোনো ব্যক্তির সম্মতি ছাড়াই তাদের যৌন আবেদনময়ী ছবি তৈরি করতে পারার বিষয়ে প্রায় এক সপ্তাহ ধরে সমালোচনার পর X Safety নামক প্ল্যাটফর্মটির নিরাপত্তা-কেন্দ্রিক বিভাগ এই ঘোষণা দেয়। শনিবার প্রকাশিত এক বিবৃতিতে, X Safety CSAM তৈরির জন্য ব্যবহারকারীদের প্ররোচনাকে দায়ী করে এবং সতর্ক করে যে এই ধরনের কাজের ফলে অ্যাকাউন্ট বাতিল এবং আইনি জটিলতা তৈরি হতে পারে। X Safety জানায়, "আমরা X-এ অবৈধ বিষয়বস্তুর বিরুদ্ধে ব্যবস্থা নিই, যার মধ্যে শিশু যৌন নির্যাতন সামগ্রীও (CSAM) অন্তর্ভুক্ত। আমরা এটি সরিয়ে দিই, অ্যাকাউন্টগুলি স্থায়ীভাবে বাতিল করি এবং প্রয়োজনে স্থানীয় সরকার ও আইন প্রয়োগকারী সংস্থার সাথে কাজ করি।" "যে কেউ Grok ব্যবহার করে বা অবৈধ বিষয়বস্তু তৈরি করতে প্ররোচিত করে, তারা অবৈধ বিষয়বস্তু আপলোড করার মতোই পরিণতি ভোগ করবে।"
কোম্পানিটির এই অবস্থান AI-উত্পাদিত বিষয়বস্তুর দায়ভার নিয়ে একটি ক্রমবর্ধমান বিতর্ককে তুলে ধরে, বিশেষ করে যখন সেই বিষয়বস্তু অবৈধ বা ক্ষতিকর হয়। Grok, অন্যান্য বৃহৎ ভাষা মডেলের (LLM) মতো, টেক্সট এবং ছবির বিশাল ডেটাসেট থেকে শেখে। এই প্রশিক্ষণ প্রক্রিয়া AI-কে নতুন বিষয়বস্তু তৈরি করতে সক্ষম করে, তবে এর অর্থ হল এটি ক্ষতিকর পক্ষপাতদুষ্টতা পুনরুৎপাদন করতে পারে অথবা প্ররোচিত হলে অবৈধ উপাদান তৈরি করতে পারে। মূল চ্যালেঞ্জটি হল AI সিস্টেমগুলির সৃজনশীল এবং দরকারী আউটপুট তৈরি করার ক্ষমতাকে দমিয়ে না রেখে ক্ষতিকর বিষয়বস্তু তৈরি করা থেকে বিরত রাখা।
X-এর মালিক ইলন মাস্ক Grok ব্যবহার করে অবৈধ বিষয়বস্তু তৈরি করা ব্যবহারকারীদের জন্য পরিণতির পুনরাবৃত্তি করে প্ল্যাটফর্মে একটি রিপ্লাই বুস্ট করার মাধ্যমে কোম্পানির অবস্থানকে আরও শক্তিশালী করেছেন। এই পদ্ধতিটি সম্ভাব্য প্রযুক্তিগত সমাধানগুলির বিপরীতে যায়, যেমন CSAM তৈরি করা থেকে আটকাতে ফিল্টার প্রয়োগ করা বা AI-এর প্রশিক্ষণ ডেটা পরিবর্তন করা।
AI নীতি ও আইনের বিশেষজ্ঞরা X-এর এই পদ্ধতির প্রভাব নিয়ে উদ্বেগ প্রকাশ করেছেন। কেউ কেউ যুক্তি দেন যে ব্যবহারকারীদের তাদের প্ররোচনার জন্য জবাবদিহি করা উচিত, তবে কোম্পানিরও यह सुनिश्चित करने के लिए जिम्मेदारी है कि उसकी AI प्रणाली को अवैध सामग्री उत्पन्न करने से रोकने के लिए डिज़ाइन किया गया है। এর মধ্যে কঠোর কনটেন্ট ফিল্টার প্রয়োগ করা, প্রসঙ্গ এবং উদ্দেশ্য সম্পর্কে AI-এর বোঝাপড়া উন্নত করা এবং সম্ভাব্য লঙ্ঘনের জন্য ক্রমাগত এর আউটপুট নিরীক্ষণ করা অন্তর্ভুক্ত থাকতে পারে।
Grok এবং CSAM সম্পর্কিত বিতর্ক AI শিল্পের সম্মুখীন হওয়া বৃহত্তর চ্যালেঞ্জগুলিকে প্রতিফলিত করে। যেহেতু AI সিস্টেমগুলি আরও শক্তিশালী হয়ে উঠছে এবং সমাজের বিভিন্ন দিকের সাথে একত্রিত হচ্ছে, তাই তাদের বিকাশ এবং ব্যবহার সম্পর্কিত স্পষ্ট নির্দেশিকা এবং নিয়মকানুন প্রতিষ্ঠা করা অত্যন্ত গুরুত্বপূর্ণ। এর মধ্যে পক্ষপাত, গোপনীয়তা এবং অপব্যবহারের সম্ভাবনা പോലുള്ള বিষয়গুলি সমাধান করা অন্তর্ভুক্ত। AI নিরাপত্তা গবেষণার সাম্প্রতিক অগ্রগতিগুলি প্রতিকূল প্রশিক্ষণ (adversarial training) এর মতো কৌশলগুলির উপর দৃষ্টি নিবদ্ধ করে, যার লক্ষ্য হল AI সিস্টেমগুলিকে দূষিত প্ররোচনার বিরুদ্ধে আরও শক্তিশালী করা এবং ব্যাখ্যাযোগ্য AI (XAI), যা AI সিস্টেমগুলি কীভাবে সিদ্ধান্ত নেয় সে সম্পর্কে আমাদের বোঝাপড়া উন্নত করতে চায়।
বর্তমানে, X, CSAM তৈরি করা থেকে আটকাতে Grok-এর অন্তর্নিহিত কোড আপডেট করা বা নতুন সুরক্ষা ব্যবস্থা প্রয়োগ করার কোনো নির্দিষ্ট পরিকল্পনা ঘোষণা করেনি। কোম্পানির মনোযোগ ব্যবহারকারীর কার্যকলাপ নিরীক্ষণ এবং যারা তাদের পরিষেবার শর্তাবলী লঙ্ঘন করে তাদের বিরুদ্ধে ব্যবস্থা নেওয়ার উপর রয়েছে। পরিস্থিতি এখনও চলছে, এবং AI কনটেন্ট মডারেশনের চ্যালেঞ্জগুলির সাথে X মোকাবিলা করতে থাকায় আরও উন্নয়নের প্রত্যাশা করা হচ্ছে।
Discussion
Join the conversation
Be the first to comment