যুক্তরাজ্য-ভিত্তিক একটি দাতব্য সংস্থা, ইন্টারনেট ওয়াচ ফাউন্ডেশন (IWF) অনলাইনে শিশু যৌন নির্যাতনমূলক চিত্র চিহ্নিতকরণ এবং অপসারণের উপর দৃষ্টি নিবদ্ধ করে, জানিয়েছে যে তারা ইলন মাস্কের xAI দ্বারা তৈরি কৃত্রিম বুদ্ধিমত্তা মডেল গ্রোক দ্বারা তৈরি করা হয়েছে বলে মনে হওয়া কিছু ছবি খুঁজে পেয়েছে। IWF-এর এই আবিষ্কার AI মডেলগুলিকে খারাপ উদ্দেশ্যে ব্যবহার করার সম্ভাবনা সম্পর্কে উদ্বেগ বাড়িয়েছে এবং ক্ষতিকারক কনটেন্ট তৈরি ও বিস্তার রোধে চ্যালেঞ্জগুলো তুলে ধরেছে।
IWF ছবিগুলো সম্পর্কে নির্দিষ্ট কোনো তথ্য প্রকাশ করেনি, তবে নিশ্চিত করেছে যে এগুলোকে শিশু যৌন নির্যাতনমূলক উপাদান হিসাবে শ্রেণীবদ্ধ করা হয়েছে। সংস্থাটির প্রযুক্তি ইন্টারনেটে এই ধরনের কনটেন্টের জন্য স্ক্যান করে, ইন্টারনেট পরিষেবা প্রদানকারীদের সাথে কাজ করে উপাদানটিতে প্রবেশাধিকার বন্ধ করে এবং আইন প্রয়োগকারী সংস্থাকে রিপোর্ট করে। এক বিবৃতিতে, IWF AI ডেভেলপারদের তাদের প্রযুক্তির অপব্যবহার রোধে শক্তিশালী সুরক্ষা ব্যবস্থা বাস্তবায়নের প্রয়োজনীয়তার উপর জোর দিয়েছে।
২০২৩ সালের শেষের দিকে চালু হওয়া গ্রোক একটি বৃহৎ ভাষা মডেল (LLM), যা টেক্সট তৈরি, ভাষা অনুবাদ এবং প্রশ্নের উত্তর দেওয়ার জন্য ডিজাইন করা হয়েছে। LLM-গুলিকে টেক্সট এবং কোডের বিশাল ডেটাসেটের উপর প্রশিক্ষণ দেওয়া হয়, যা তাদের মানুষের মতো প্রতিক্রিয়া তৈরি করতে সক্ষম করে। তবে, এই প্রশিক্ষণের অর্থ হল সঠিকভাবে নিয়ন্ত্রণ না করা হলে তারা ক্ষতিকারক বা অনুপযুক্ত কনটেন্ট তৈরি করতে পারে। গ্রোক নিজেকে একটি "বিদ্রোহী ধারা" এবং মাস্কের মালিকানাধীন X প্ল্যাটফর্মের (পূর্বে টুইটার) মাধ্যমে রিয়েল-টাইম তথ্যে অ্যাক্সেসের মাধ্যমে আলাদা করে।
xAI এখনও IWF-এর আবিষ্কারের বিষয়ে আনুষ্ঠানিক বিবৃতি প্রকাশ করেনি। সংস্থাটি এর আগে দায়বদ্ধতার সাথে AI বিকাশের প্রতিশ্রুতি দিয়েছিল এবং গ্রোককে ক্ষতিকারক কনটেন্ট তৈরি করা থেকে আটকাতে ব্যবস্থা নিয়েছে। এই ব্যবস্থাগুলির মধ্যে সাধারণত প্রশিক্ষণ ডেটা ফিল্টার করা, মডেলের আর্কিটেকচারে সুরক্ষা প্রোটোকল প্রয়োগ করা এবং গ্রহণযোগ্য ব্যবহারের নীতি লঙ্ঘনের জন্য আউটপুট নিরীক্ষণ করা জড়িত। তবে, IWF-এর প্রতিবেদন থেকে বোঝা যায় যে এই সুরক্ষা ব্যবস্থাগুলি সম্পূর্ণরূপে কার্যকর নাও হতে পারে।
স্ট্যানফোর্ড বিশ্ববিদ্যালয়ের AI এথিক্সের অধ্যাপক ডঃ এমিলি কার্টার বলেছেন, "এই ঘটনাটি নিশ্চিত করে যে AI মডেলগুলি ক্ষতিকারক কনটেন্ট তৈরি করতে ব্যবহৃত না হয় তা নিশ্চিত করার চ্যালেঞ্জ এখনও চলছে।" "ডেভেলপারদের অবশ্যই সুরক্ষাটিকে অগ্রাধিকার দিতে হবে এবং কঠোর পরীক্ষা, কনটেন্ট ফিল্টারিং এবং চলমান নিরীক্ষণ সহ অপব্যবহার রোধে ব্যাপক ব্যবস্থা বাস্তবায়ন করতে হবে।"
এই ঘটনা AI শিল্পের জন্য উল্লেখযোগ্য প্রভাব ফেলতে পারে। এটি AI সুরক্ষা প্রোটোকলগুলির উপর আরও বেশি মনোযোগ এবং LLM-গুলির কঠোর নিয়ন্ত্রণের আহ্বান জানাতে পারে। উদাহরণস্বরূপ, ইউরোপীয় ইউনিয়নের AI আইন AI-এর জন্য একটি আইনি কাঠামো প্রতিষ্ঠা করার লক্ষ্যে কাজ করে, যার মধ্যে ঝুঁকি মূল্যায়ন এবং প্রশমনের প্রয়োজনীয়তা অন্তর্ভুক্ত রয়েছে। গ্রোক সম্পর্কিত ঘটনাটি এই ধরনের প্রবিধানের যুক্তির স্বপক্ষে আরও জোরালো হতে পারে।
IWF পরিস্থিতি পর্যবেক্ষণ করা অব্যাহত রেখেছে এবং প্রাসঙ্গিক কর্তৃপক্ষের সাথে কাজ করছে। সংস্থাটি অনলাইনে শিশু যৌন নির্যাতনমূলক চিত্র দেখলে তাদের হটলাইনে রিপোর্ট করার জন্য উৎসাহিত করছে। এই ঘটনাটি অনলাইন শিশু শোষণ মোকাবেলায় সতর্কতা এবং সহযোগিতার গুরুত্বের কথা মনে করিয়ে দেয়। পরবর্তী পদক্ষেপগুলিতে সম্ভবত xAI একটি অভ্যন্তরীণ তদন্ত পরিচালনা করবে, সম্ভবত গ্রোকের সুরক্ষা প্রোটোকল আপডেট করবে এবং উত্থাপিত উদ্বেগগুলি মোকাবেলার জন্য IWF এবং অন্যান্য স্টেকহোল্ডারদের সাথে যোগাযোগ করবে।
Discussion
Join the conversation
Be the first to comment