তথ্য বিকৃতির ক্রমবর্ধমান প্রবণতা এই ঘটনাটি তুলে ধরে, যেখানে এআই (AI) দ্বারা ছবি তৈরির অত্যাধুনিক সরঞ্জামগুলির দ্রুত বিস্তার ঘটছে। এই সরঞ্জামগুলি এখন এতটাই বাস্তবসম্মত ছবি তৈরি করতে সক্ষম যে, সাধারণ মানুষ সহজেই প্রতারিত হতে পারে। জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GANs) বা ডিফিউশন মডেলের উপর ভিত্তি করে তৈরি এই সরঞ্জামগুলি বিদ্যমান ছবি এবং শিল্পকর্মের বিশাল ডেটাসেট বিশ্লেষণ করে নতুন ছবি তৈরি করতে শেখে। উদাহরণস্বরূপ, GANs দুটি নিউরাল নেটওয়ার্ককে একে অপরের বিরুদ্ধে দাঁড় করায়: একটি জেনারেটর যা ছবি তৈরি করে এবং অন্যটি ডিসক্রিমিনেটর, যা আসল এবং নকল ছবির মধ্যে পার্থক্য করার চেষ্টা করে। এই প্রক্রিয়ার মাধ্যমে ক্রমশ বাস্তবসম্মত ছবি তৈরি করা সম্ভব হয়। ডিফিউশন মডেল, যা অন্য একটি জনপ্রিয় কৌশল, প্রথমে একটি ছবিতে ধীরে ধীরে নয়েজ যোগ করে যতক্ষণ না সেটি সম্পূর্ণ স্ট্যাটিক হয়ে যায়, এবং তারপর সেই প্রক্রিয়াটিকে বিপরীত করে নয়েজ থেকে নতুন ছবি তৈরি করতে শেখে।
বিশেষজ্ঞরা সতর্ক করে বলেছেন যে, এআই (AI) দ্বারা তৈরি এই ছবিগুলোর বিস্তার জনমত এবং বিভিন্ন প্রতিষ্ঠানের উপর আস্থা কমিয়ে দিতে পারে। ইউনিভার্সিটি অফ ক্যালিফোর্নিয়া, বার্কলের মিডিয়া স্টাডিজের অধ্যাপক ডঃ ই Evelyn Hayes বলেন, "যে সহজে বিশ্বাসযোগ্য নকল ছবি তৈরি এবং প্রচার করা যায়, তাতে সাধারণ মানুষের পক্ষে কোনটা আসল আর কোনটা নকল, তা বোঝা ক্রমশ কঠিন হয়ে পড়ছে।" তিনি আরও বলেন, "এটি বৈধ সংবাদমাধ্যমের উপর থেকে বিশ্বাস সরিয়ে দেয় এবং রাজনৈতিক স্থিতিশীলতা ও সামাজিক সংহতির জন্য গুরুতর পরিণতি ডেকে আনতে পারে।"
এই ঘটনাটি সামাজিক মাধ্যম কোম্পানিগুলি যে তথ্য বিকৃতির বিরুদ্ধে লড়াই করছে, সেই চ্যালেঞ্জগুলোকেও তুলে ধরে। যদিও টুইটার এবং ফেসবুকের মতো প্ল্যাটফর্মগুলোতে নকল বিষয়বস্তু সরানোর জন্য নীতি রয়েছে, তবুও তথ্যের বিশাল পরিমাণের কারণে এআই (AI) দ্বারা তৈরি করা সমস্ত ভুল তথ্য চিহ্নিত করে সময় মতো সরানো কঠিন। তাছাড়া, ডিপফেক-এর মতো অত্যাধুনিক কৌশল ব্যবহার করে ভিডিও এবং অডিও রেকর্ডিংয়ের পরিবর্তন করা আরও কঠিন হয়ে পরে, যা বিষয়বস্তু নিরীক্ষণের কাজকে আরও জটিল করে তোলে।
ভেনেজুয়েলার উপর মার্কিন যুক্তরাষ্ট্রের কথিত আক্রমণ সম্পর্কিত যাচাইকৃত তথ্যের অভাবে ভুল তথ্যের বিস্তার আরও বেড়ে যায়। সীমিত সরকারি বিবৃতি বা নির্ভরযোগ্য সংবাদ প্রতিবেদনের অভাবে, সামাজিক মাধ্যম ব্যবহারকারীরা এআই (AI) দ্বারা তৈরি করা ছবিগুলোকে আসল বলে ধরে নিতে শুরু করে। ডিজিটাল যুগে সমালোচনামূলক চিন্তাভাবনা এবং মিডিয়া সাক্ষরতার গুরুত্ব এখানে স্পষ্ট। ব্যক্তিদের তথ্যের উৎস যাচাই করতে, একাধিক উৎস থেকে দাবির সত্যতা নিশ্চিত করতে এবং আবেগপূর্ণ বিষয়বস্তু সম্পর্কে সতর্ক থাকতে উৎসাহিত করা উচিত।
এআই (AI) প্রযুক্তির দ্রুত উন্নতির সাথে সাথে ভুল তথ্য চিহ্নিতকরণ এবং মোকাবিলার জন্য নতুন সরঞ্জাম এবং কৌশল তৈরি করা প্রয়োজন। গবেষকরা বিভিন্ন পদ্ধতি নিয়ে কাজ করছেন, যার মধ্যে এআই (AI) ব্যবহার করে এআই (AI) দ্বারা তৈরি বিষয়বস্তু শনাক্ত করাও অন্তর্ভুক্ত। এই কৌশলগুলোতে প্রায়শই এআই (AI) দ্বারা তৈরি ছবিগুলোতে থাকা সূক্ষ্ম ত্রুটি বা অসঙ্গতিগুলো বিশ্লেষণ করা হয়, যেমন পিক্সেলের মধ্যে অস্বাভাবিক প্যাটার্ন বা অস্বাভাবিক আলোর প্রভাব। অন্য একটি পদ্ধতি হলো ছবি এবং ভিডিওর সত্যতা যাচাই করার জন্য ব্লকচেইন প্রযুক্তি ব্যবহার করা। মূল বিষয়বস্তুর একটি টেম্পার-প্রুফ রেকর্ড তৈরি করার মাধ্যমে, ব্লকচেইন কারসাজি করা মিডিয়া ছড়ানো বন্ধ করতে সাহায্য করতে পারে।
এআই (AI) প্রযুক্তি ক্রমাগত বিকশিত হওয়ার সাথে সাথে ভুল তথ্যের চ্যালেঞ্জ মোকাবেলার জন্য একটি বহুমাত্রিক পদ্ধতি তৈরি করা অত্যন্ত জরুরি। এর মধ্যে মিডিয়া সাক্ষরতা শিক্ষায় বিনিয়োগ করা, নকল বিষয়বস্তু শনাক্ত করার জন্য নতুন সরঞ্জাম তৈরি করা এবং সামাজিক মাধ্যম প্ল্যাটফর্মগুলোতে ভুল তথ্য ছড়ানোর জন্য কোম্পানিগুলোকে জবাবদিহি করা অন্তর্ভুক্ত। মাদুরোর এআই (AI) দ্বারা তৈরি ছবিগুলোর ঘটনাটি এআই (AI) ব্যবহারের মাধ্যমে জনমতকে প্রভাবিত এবং গণতান্ত্রিক প্রক্রিয়াকে দুর্বল করার সম্ভাবনার একটি কঠোর অনুস্মারক।
Discussion
Join the conversation
Be the first to comment