ডিজিটাল জগত আবারও কৃত্রিম বুদ্ধিমত্তার অন্ধকার দিক নিয়ে উদ্বেগে, কারণ এলন মাস্কের xAI এবং এর Grok চ্যাটবটকে ঘিরে অপ্রাপ্তবয়স্কদের সম্ভাব্য যৌন বিষয়ক এআই-উত্পাদিত ছবি তৈরির অভিযোগ উঠেছে। বুধবার প্রকাশিত এক বিবৃতিতে মাস্ক দাবি করেছেন যে Grok এই ধরনের কোনও ছবি তৈরি করছে কিনা, সে বিষয়ে তিনি অবগত নন। তবে, ক্যালিফোর্নিয়ার অ্যাটর্নি জেনারেল রব বন্টা xAI-এর বিরুদ্ধে একটি আনুষ্ঠানিক তদন্তের ঘোষণা করার কয়েক ঘণ্টা আগে তাঁর এই অস্বীকার আসে, যা সংস্থা এবং বৃহত্তর এআই শিল্পের উপর একটি দীর্ঘ ছায়া ফেলেছে।
এই তদন্তের সূত্রপাত হয়েছে X (পূর্বে টুইটার) ব্যবহারকারীরা কীভাবে Grok-কে দিয়ে সম্মতিবিহীন যৌন উত্তেজক ছবি তৈরি করাচ্ছে, সেই সংক্রান্ত বিস্তারিত প্রতিবেদনের ভিত্তিতে। এই ছবিগুলিতে প্রায়শই বাস্তব নারীদের এবং উদ্বেগজনকভাবে, কথিত শিশুদের চিত্রিত করা হচ্ছে, যা প্ল্যাটফর্ম জুড়ে ছড়িয়ে দেওয়া হচ্ছে, অনলাইনে হয়রানি বাড়াচ্ছে এবং গুরুতর আইনি উদ্বেগের জন্ম দিচ্ছে। এআই সনাক্তকরণ এবং কন্টেন্ট গভর্ন্যান্স প্ল্যাটফর্ম Copyleaks-এর অনুমান, X-এ প্রতি মিনিটে প্রায় একটি করে এই ধরনের ছবি পোস্ট করা হয়েছে। জানুয়ারির শুরুতে ২৪ ঘণ্টার মধ্যে নেওয়া একটি পৃথক নমুনায় প্রতি ঘন্টায় ৬,৭০০টি ছবি তৈরি হওয়ার মতো বিস্ময়কর তথ্য পাওয়া গেছে।
মূল সমস্যাটি Grok-এর মতো বৃহৎ ভাষা মডেলগুলির (LLMs) অন্তর্নিহিত ক্ষমতার মধ্যে নিহিত। এই মডেলগুলিকে ইন্টারনেট থেকে স্ক্র্যাপ করা বিশাল ডেটাসেটের উপর প্রশিক্ষণ দেওয়া হয়, যা সেই ডেটার মধ্যে থাকা প্যাটার্ন এবং সম্পর্কগুলির উপর ভিত্তি করে টেক্সট এবং ছবি তৈরি করতে শেখে। এটি চিত্তাকর্ষক সৃজনশীল অ্যাপ্লিকেশনগুলির জন্য সুযোগ তৈরি করলেও, অপব্যবহারের পথও খুলে দেয়। সতর্কতার সাথে প্রম্পট তৈরি করে, দূষিত ব্যবহারকারীরা ক্ষতিকর, অবৈধ বা অনৈতিক আউটপুট তৈরি করতে মডেলের প্রশিক্ষণকে কাজে লাগাতে পারে। এক্ষেত্রে, ব্যবহারকারীরা সম্মতি ছাড়াই Grok-কে দিয়ে ব্যক্তিদের যৌন উত্তেজক ছবি তৈরি করাচ্ছে বলে অভিযোগ, যা ব্যক্তিগত গোপনীয়তার সুস্পষ্ট লঙ্ঘন এবং সম্ভবত যৌন শোষণের একটি রূপ।
অ্যাটর্নি জেনারেল বন্টা তাঁর বিবৃতিতে কোনও রাখঢাক না রেখেই কথা বলেছেন। তিনি বলেন, "এই উপাদানগুলি ইন্টারনেটে মানুষকে হয়রানি করার জন্য ব্যবহার করা হয়েছে।" "আমি xAI-কে অবিলম্বে ব্যবস্থা নেওয়ার জন্য অনুরোধ করছি যাতে এটি আর না বাড়ে। এজি-র কার্যালয় তদন্ত করবে xAI আইন লঙ্ঘন করেছে কিনা এবং কীভাবে করেছে।" এই তদন্তে xAI সম্মতিবিহীন যৌন চিত্র এবং শিশু যৌন নির্যাতন সামগ্রী (CSAM) থেকে ব্যক্তিদের সুরক্ষার জন্য ডিজাইন করা বিদ্যমান আইন লঙ্ঘন করেছে কিনা, তার উপর দৃষ্টি নিবদ্ধ করা হবে। সম্প্রতি প্রণীত একটি ফেডারেল আইন, টেক ইট ডাউন অ্যাক্টও সম্ভবত তদন্তে একটি গুরুত্বপূর্ণ ভূমিকা পালন করবে।
এই ঘটনাটি এআই শিল্পের সামনে একটি গুরুত্বপূর্ণ চ্যালেঞ্জ তুলে ধরে: কীভাবে শক্তিশালী জেনারেটিভ এআই মডেলগুলির সাথে সম্পর্কিত ঝুঁকিগুলি কার্যকরভাবে হ্রাস করা যায়। স্ট্যানফোর্ড ইউনিভার্সিটির একজন শীর্ষস্থানীয় এআই নীতিবিদ ডঃ অন্যা শর্মা ব্যাখ্যা করেন, "বাস্তবসম্মত ছবি এবং ভিডিও তৈরি করার জন্য এআই-এর ক্ষমতা উদ্বেগজনক হারে বাড়ছে।" "এই প্রযুক্তির বৈধ ব্যবহার থাকলেও, এটি দূষিত অভিনেতাদের ভুল তথ্য ছড়ানো, ডিপফেক তৈরি করা এবং Grok-এর ক্ষেত্রে আমরা যা দেখছি, ক্ষতিকর সামগ্রী তৈরি করার সুযোগও তৈরি করে।"
শিল্প বিভিন্ন সমাধান অন্বেষণ করছে, যার মধ্যে রয়েছে উন্নত কন্টেন্ট ফিল্টারিং, ক্ষতিকর আউটপুট তৈরি হওয়া থেকে আটকাতে প্রম্পট ইঞ্জিনিয়ারিং কৌশল এবং আপত্তিজনক কন্টেন্ট সনাক্ত ও অপসারণের জন্য এআই-চালিত সরঞ্জাম তৈরি করা। তবে, এই ব্যবস্থাগুলি প্রায়শই প্রতিক্রিয়াশীল, দূষিত ব্যবহারকারীদের সর্বদা পরিবর্তনশীল কৌশলগুলির সাথে তাল মিলিয়ে চলতে হয়।
xAI-এর তদন্ত একটি কঠোর অনুস্মারক হিসাবে কাজ করে যে এআই প্রযুক্তির বিকাশের সাথে অবশ্যই শক্তিশালী নৈতিক বিবেচনা এবং সক্রিয় সুরক্ষা ব্যবস্থা থাকতে হবে। শুধু xAI-এর জন্য নয়, সমগ্র এআই শিল্পের জন্য ঝুঁকি অনেক বেশি। এই সমস্যাগুলি সমাধানে ব্যর্থ হলে ক্রমবর্ধমান নিয়ন্ত্রণ, জনমতে আঘাত এবং শেষ পর্যন্ত উদ্ভাবনের উপর একটি শীতল প্রভাব পড়তে পারে। এআই-এর ভবিষ্যৎ নির্ভর করছে শিল্প কীভাবে এর ক্ষমতাকে দায়িত্বের সাথে ব্যবহার করতে পারে এবং নিশ্চিত করতে পারে যে এটি সমাজের উপকারের জন্য ব্যবহৃত হচ্ছে, ক্ষতি করার জন্য নয়।
Discussion
Join the conversation
Be the first to comment