যুক্তরাজ্য-ভিত্তিক একটি দাতব্য সংস্থা, ইন্টারনেট ওয়াচ ফাউন্ডেশন (IWF) অনলাইনে শিশু যৌন নির্যাতন বিষয়ক ছবি চিহ্নিতকরণ এবং অপসারণের ওপর দৃষ্টি নিবদ্ধ করে। তারা জানিয়েছে যে তারা এমন কিছু ছবি খুঁজে পেয়েছে যা দেখে মনে হচ্ছে এলন মাস্কের xAI দ্বারা তৈরি কৃত্রিম বুদ্ধিমত্তা মডেল গ্রোক দ্বারা তৈরি করা হয়েছে। IWF অবৈধ কন্টেন্টের জন্য ইন্টারনেট নিয়মিত নিরীক্ষণের সময় এই আবিষ্কারটি করে।
IWF ছবিগুলোর নির্দিষ্ট প্রকৃতি প্রকাশ করেনি, কারণ তারা এই উপাদানটির আরও বিস্তার এড়াতে চায়। তবে সংস্থাটি নিশ্চিত করেছে যে ছবিগুলো শিশু যৌন নির্যাতন বিষয়ক ছবির মানদণ্ড পূরণ করে। IWF-এর সিইও সুসি হারগ্রিভস ওবিই এক প্রেস বিজ্ঞপ্তিতে বলেন, "আমাদের প্রধান লক্ষ্য শিশুদের সুরক্ষা, এবং আমরা ইন্টারনেট থেকে এই ধরনের কন্টেন্ট অপসারণের জন্য নিরলসভাবে কাজ করি।" "আমরা এই সমস্যা সমাধানে প্রাসঙ্গিক প্ল্যাটফর্ম এবং আইন প্রয়োগকারী সংস্থাগুলোর সাথে কাজ করছি।"
গ্রোক ২০২৩ সালের শেষের দিকে চালু করা হয়েছিল। এটি একটি বৃহৎ ভাষা মডেল (LLM) যা টেক্সট তৈরি করতে, ভাষা অনুবাদ করতে, বিভিন্ন ধরণের সৃজনশীল কন্টেন্ট লিখতে এবং তথ্যপূর্ণ উপায়ে প্রশ্নের উত্তর দিতে ডিজাইন করা হয়েছে। LLM-গুলোকে টেক্সট এবং কোডের বিশাল ডেটাসেটের ওপর প্রশিক্ষণ দেওয়া হয়, যা তাদের ভাষার ধরণ এবং সম্পর্ক শিখতে সক্ষম করে। তবে, এই প্রশিক্ষণটি অনিচ্ছাকৃতভাবে মডেলগুলোকে ক্ষতিকারক কন্টেন্টের সংস্পর্শে আনতে পারে, যা তাদের আউটপুটে প্রতিলিপি হতে পারে।
এই ঘটনাটি শিশু যৌন নির্যাতনের উপাদান তৈরি সহ বিদ্বেষপূর্ণ উদ্দেশ্যে AI মডেলগুলোর অপব্যবহারের সম্ভাবনা সম্পর্কে উদ্বেগ সৃষ্টি করেছে। AI সুরক্ষা ক্ষেত্রের বিশেষজ্ঞরা দীর্ঘদিন ধরে এই প্রযুক্তিগুলোর অনিয়ন্ত্রিত বিকাশ এবং স্থাপনার সাথে সম্পর্কিত ঝুঁকি সম্পর্কে সতর্ক করেছেন। বার্লিনের হার্টি স্কুলের এথিক্স অ্যান্ড টেকনোলজির অধ্যাপক ডঃ জোয়ানা ব্রাইসন বলেছেন, "এটি একটি কঠোর অনুস্মারক যে AI যাতে এইভাবে কাজে লাগানো না যায়, তা নিশ্চিত করার জন্য আমাদের সুরক্ষার ব্যবস্থা করা দরকার।" "ডেভেলপারদের একটি দায়িত্ব রয়েছে যে তাদের মডেলগুলো ক্ষতিকারক কন্টেন্ট তৈরি করতে সক্ষম না হয়।"
IWF-এর കണ്ടെത്തনা সম্পর্কে xAI এখনও কোনও আনুষ্ঠানিক বিবৃতি জারি করেনি। তবে, এলন মাস্ক এর আগে দায়িত্বশীল এবং নৈতিকভাবে AI বিকাশের প্রতিশ্রুতি দিয়েছেন। কোম্পানির ওয়েবসাইটে AI সুরক্ষার প্রতি তাদের দৃষ্টিভঙ্গি তুলে ধরা হয়েছে, যার মধ্যে ক্ষতিকারক কন্টেন্ট তৈরি প্রতিরোধ করার ব্যবস্থা রয়েছে। IWF-এর প্রতিবেদনের মাধ্যমে উত্থাপিত নির্দিষ্ট সমস্যাগুলো সমাধানে xAI কী পদক্ষেপ নেবে, তা দেখার বিষয়।
IWF চিহ্নিত ছবিগুলো অপসারণ করতে এবং তাদের আরও বিস্তার রোধ করতে অনলাইন প্ল্যাটফর্ম এবং আইন প্রয়োগকারী সংস্থার সাথে কাজ করে চলেছে। এই ঘটনাটি AI বিকাশ এবং স্থাপনার কঠোর নিয়ন্ত্রণের প্রয়োজনীয়তা নিয়ে আরও বিতর্কের জন্ম দেবে, বিশেষ করে এমন ক্ষেত্রগুলোতে যেখানে দুর্বল ব্যক্তিদের ক্ষতির ঝুঁকি রয়েছে। AI দ্বারা সৃষ্ট চ্যালেঞ্জগুলো মোকাবিলা করার জন্য, যার মধ্যে AI সিস্টেমগুলোর সুরক্ষা এবং নিরাপত্তা নিশ্চিত করার ব্যবস্থা রয়েছে, যুক্তরাজ্য সরকার বর্তমানে নতুন আইন বিবেচনা করছে।
Discussion
Join the conversation
Be the first to comment