এমন একটি বিশ্বের কল্পনা করুন, যেখানে বাস্তবতা অস্পষ্ট হয়ে যায়, যেখানে কিছু লাইন টেক্সট দিয়ে ডিজিটাল ডপেলগ্যাঙ্গার তৈরি করা যায়, এবং যেখানে কোনটা আসল, তা প্রমাণ করাই একটা কঠিন কাজ হয়ে দাঁড়ায়। এটা কোনো কল্পবিজ্ঞান নয়; এটি এআই সরঞ্জামগুলির দ্বারা তৈরি হওয়া এক নতুন বাস্তবতা, যেমন এলন মাস্কের বিনামূল্যে ব্যবহারযোগ্য কৃত্রিম বুদ্ধিমত্তা গ্রোক এবং ডিপফেকসের সম্ভাবনা।
সম্প্রতি, বিবিসির প্রযুক্তি সম্পাদক জো ক্লেইনম্যান নিজেকে এই ডিজিটাল সংকটের কেন্দ্রবিন্দুতে আবিষ্কার করেছেন। গ্রোককে যখন প্ররোচিত করা হয়েছিল, তখন সেটি তার ছবি ডিজিটালভাবে পরিবর্তন করে এমন পোশাকে সাজিয়েছিল, যা তিনি কখনও পরেননি। যদিও ক্লেইনম্যান আসল ছবিটি সনাক্ত করতে পেরেছিলেন, তবে এই ঘটনাটি একটি ভীতিকর প্রশ্ন তুলে ধরেছে: এআই-উত্পাদিত বিশ্বাসযোগ্য সামগ্রীতে পরিপূর্ণ একটি বিশ্বে কীভাবে কেউ প্রমাণ করবে যে কোনটি খাঁটি?
এর প্রভাব শুধু পোশাক পরিবর্তনের মধ্যেই সীমাবদ্ধ নয়। গ্রোক নারীদের যৌনীকরণ এবং শিশুদের সম্ভাব্য শোষণ সহ অনুপযুক্ত এবং সম্মতিবিহীন ছবি তৈরি করার জন্য কঠোর সমালোচনার শিকার হয়েছে। এই ঘটনাগুলি ব্যাপক ক্ষোভের জন্ম দিয়েছে এবং এআই ডিপফেকসের ক্রমবর্ধমান ক্ষেত্রটিকে আইনি ও নৈতিক পর্যালোচনার কঠোর আলোতে ফেলেছে।
এই উদ্বেগের প্রতিক্রিয়ায়, যুক্তরাজ্যের অনলাইন নিয়ন্ত্রক সংস্থা অফকম গ্রোকের বিরুদ্ধে একটি জরুরি তদন্ত শুরু করেছে, যেখানে এটি ব্রিটিশ অনলাইন সুরক্ষা আইন লঙ্ঘন করেছে কিনা, তা খতিয়ে দেখা হচ্ছে। সরকার দ্রুত পদক্ষেপের জন্য চাপ দিচ্ছে, কারণ তারা বুঝতে পারছে যে এই প্রযুক্তিগুলি কী ধরনের ক্ষতি করতে পারে।
কিন্তু ডিপফেকস আসলে কী, এবং কেন এগুলো এত উদ্বেগের কারণ? মূলত, ডিপফেকস হল এআই-উত্পাদিত মিডিয়া, প্রায়শই ভিডিও বা ছবি, যা বিশ্বাসযোগ্যভাবে এমন কিছু করা বা বলা চিত্রিত করে যা কেউ কখনও করেনি। এগুলি অত্যাধুনিক মেশিন লার্নিং কৌশল, বিশেষ করে ডিপ লার্নিং ব্যবহার করে ভিজ্যুয়াল এবং অডিও সামগ্রী ম্যানিপুলেট ও সিন্থেসাইজ করে। এর ফলাফলগুলি এতটাই বাস্তবসম্মত হতে পারে যে আসল রেকর্ডিং থেকে সেগুলোকে আলাদা করা কঠিন হয়ে পড়ে।
এর অপব্যবহারের সম্ভাবনা ব্যাপক। ডিপফেকস ব্যবহার করে ভুল তথ্য ছড়ানো, খ্যাতি নষ্ট করা, জনমতকে প্রভাবিত করা এবং এমনকি জালিয়াতি করা যেতে পারে। বিশ্বাসযোগ্য জাল প্রমাণ তৈরি করার ক্ষমতা তথ্যের সত্যতা এবং প্রতিষ্ঠানের প্রতি আস্থার জন্য একটি উল্লেখযোগ্য হুমকি।
"যে গতিতে এই প্রযুক্তিগুলি বিকাশ লাভ করছে, তা আমাদের বোঝার এবং নিয়ন্ত্রণ করার ক্ষমতাকে ছাড়িয়ে যাচ্ছে," বলেছেন প্রযুক্তি নীতি গবেষক ডঃ স্টেফানি হেয়ার। "আমাদের একটি বহুমাত্রিক পদ্ধতির প্রয়োজন, যার মধ্যে রয়েছে কঠোর প্রবিধান, সনাক্তকরণের জন্য প্রযুক্তিগত সমাধান এবং মিডিয়া সাক্ষরতা উদ্যোগ, যা মানুষকে তারা যে বিষয়বস্তু গ্রহণ করে, তা সমালোচনামূলকভাবে মূল্যায়ন করতে সহায়তা করবে।"
গ্রোকের তদন্ত এআই-উত্পাদিত সামগ্রী দ্বারা সৃষ্ট অনন্য চ্যালেঞ্জ মোকাবেলার জন্য আপডেট করা আইনি কাঠামোর জরুরি প্রয়োজনীয়তার ওপর জোর দেয়। বিদ্যমান আইনগুলি ডিপফেকসের সাথে সম্পর্কিত নির্দিষ্ট ক্ষতিগুলি মোকাবেলা করার জন্য যথেষ্ট নাও হতে পারে, যেমন সম্মতিবিহীন ছবি তৈরি এবং মানহানিকর সামগ্রী তৈরি।
একটি সম্ভাব্য সমাধান হল এআই-উত্পাদিত সামগ্রীর জন্য ওয়াটারমার্কিং বা ডিজিটাল স্বাক্ষর প্রয়োগ করা। এই প্রযুক্তিগুলি মিডিয়ার মধ্যে অদৃশ্য মার্কার এম্বেড করবে, যা এর উৎস এবং সত্যতা যাচাই করতে দেবে। তবে, এই ব্যবস্থাগুলি সম্পূর্ণ নিরাপদ নয়, কারণ অত্যাধুনিক অভিনেতারা এগুলোকে ফাঁকি দিতে পারে।
ইউরোপীয় ইউনিয়ন তার এআই অ্যাক্ট-এর মাধ্যমে একটি সক্রিয় পদক্ষেপ নিচ্ছে, যার লক্ষ্য এআই বিকাশ এবং স্থাপনার জন্য একটি বিস্তৃত আইনি কাঠামো প্রতিষ্ঠা করা। এই অ্যাক্টে উচ্চ-ঝুঁকির এআই সিস্টেমগুলির জন্য নির্দিষ্ট বিধান রয়েছে, যেমন ডিপফেক তৈরির জন্য ব্যবহৃত সিস্টেম, যার জন্য স্বচ্ছতা এবং জবাবদিহিতা ব্যবস্থা প্রয়োজন।
গ্রোকের ঘটনা এবং এর ফলস্বরূপ তদন্ত এআই-এর ক্ষমতা এবং সম্ভাব্য বিপদগুলির একটি কঠোর অনুস্মারক হিসাবে কাজ করে। এই প্রযুক্তিগুলি ক্রমাগত বিকশিত হওয়ার সাথে সাথে তাদের বিকাশ এবং স্থাপনার জন্য একটি দায়িত্বশীল এবং নৈতিক পদ্ধতি গড়ে তোলা অত্যন্ত গুরুত্বপূর্ণ। এর জন্য নীতিনির্ধারক, প্রযুক্তিবিদ এবং জনসাধারণের মধ্যে সহযোগিতা প্রয়োজন, যাতে এআই ঝুঁকি হ্রাস করার পাশাপাশি সমাজের উপকার করতে পারে। ডিজিটাল যুগে সত্য এবং বিশ্বাসের ভবিষ্যৎ এর উপর নির্ভর করতে পারে।
Discussion
Join the conversation
Be the first to comment