ভাবুন তো, এমন একটা জগৎ যেখানে অনলাইনে দ্রুত চিকিৎসা বিষয়ক পরামর্শ নিতে গিয়ে আপনি ভুল তথ্যের শিকার হচ্ছেন, যা আপনার স্বাস্থ্যের জন্য বিপজ্জনক হতে পারে। এটা কোনো অলীক দুঃস্বপ্ন নয়; এটাই এখনকার বাস্তবতা। গুগল তাদের AI ওভারভিউ (AI Overviews) ফিচারটির ভুল স্বাস্থ্য বিষয়ক তথ্যের কারণে সমালোচিত হওয়ায় এই পরিস্থিতির সঙ্গে লড়ছে।
AI ওভারভিউ-এর প্রতিশ্রুতি ছিল খুব সহজ: ব্যবহারকারীর সময় এবং প্রচেষ্টা বাঁচিয়ে অনুসন্ধানের ফলাফলের একদম উপরে সংক্ষিপ্ত, AI-ভিত্তিক সারসংক্ষেপ দেওয়া। কিন্তু স্বাস্থ্যের ক্ষেত্রে নির্ভুলতা সবচেয়ে জরুরি। দ্য গার্ডিয়ানের একটি সাম্প্রতিক অনুসন্ধানে একটি বড় ত্রুটি প্রকাশ পেয়েছে: নির্দিষ্ট স্বাস্থ্য বিষয়ক প্রশ্নের উত্তরে গুগলের AI ভুল তথ্য দিচ্ছে। নিবন্ধটিতে তুলে ধরা হয়েছে যে, ব্যবহারকারীরা যখন লিভারের রক্ত পরীক্ষার স্বাভাবিক মাত্রা সম্পর্কে জানতে চেয়েছেন, তখন AI এমন সংখ্যা দিয়েছে যা জাতীয়তা, লিঙ্গ, জাতি বা বয়সের মতো গুরুত্বপূর্ণ বিষয়গুলোকে হিসাবে নেয়নি। এর ফলে ব্যক্তিরা তাদের পরীক্ষার ফলাফল ভুলভাবে বুঝতে পারেন, যা প্রয়োজনীয় চিকিৎসা নিতে দেরি করিয়ে দিতে পারে।
গার্ডিয়ানের অনুসন্ধানের প্রতিক্রিয়ায়, গুগল কিছু সমস্যাযুক্ত প্রশ্নের জন্য AI ওভারভিউ সরিয়ে নিয়েছে বলে মনে হচ্ছে, যার মধ্যে রয়েছে "লিভারের রক্ত পরীক্ষার স্বাভাবিক মাত্রা কত" এবং "লিভার ফাংশন পরীক্ষার স্বাভাবিক মাত্রা কত"। তবে, এই ভুল তথ্য সরানোর খেলা চলতেই থাকছে। গার্ডিয়ান যেমন উল্লেখ করেছে, এই প্রশ্নগুলোর সামান্য পরিবর্তনে, যেমন "এলএফটি রেফারেন্স রেঞ্জ" বা "এলএফটি টেস্ট রেফারেন্স রেঞ্জ" লিখে সার্চ করলেও AI-ভিত্তিক সারসংক্ষেপ আসতে পারে। যদিও এই পরিবর্তনের মাধ্যমে এখন আর AI ওভারভিউ দেখা যাচ্ছে না, তবুও ঘটনাটি গুগলের সুরক্ষার নির্ভরযোগ্যতা নিয়ে গুরুতর প্রশ্ন তুলেছে।
এই ঘটনাটি AI উন্নয়নের একটি মৌলিক চ্যালেঞ্জকে তুলে ধরে: বিশেষ করে স্বাস্থ্যসেবার মতো সংবেদনশীল ক্ষেত্রে নির্ভুলতা এবং নির্ভরযোগ্যতা নিশ্চিত করা। AI মডেলগুলোকে বিশাল ডেটা সেটের ওপর প্রশিক্ষণ দেওয়া হয়, এবং সেই ডেটা সেটে যদি কোনো পক্ষপাতদুষ্টতা বা ভুল থাকে, তাহলে AI অনিবার্যভাবে সেগুলোকে ধরে রাখবে। চিকিৎসা তথ্যের ক্ষেত্রে, এই ধরনের পক্ষপাতের গুরুতর পরিণতি হতে পারে।
"AI একটি শক্তিশালী হাতিয়ার, তবে এটি কেবল সেই ডেটার মতোই ভালো যার ওপর ভিত্তি করে একে প্রশিক্ষণ দেওয়া হয়েছে," বলেছেন শীর্ষস্থানীয় AI নীতিবিদ ডঃ এমিলি কার্টার। "স্বাস্থ্য বিষয়ক তথ্যের ক্ষেত্রে, এটা নিশ্চিত করা জরুরি যে ডেটা যেন বিভিন্নতা সম্পন্ন, প্রতিনিধিত্বমূলক এবং চিকিৎসা বিশেষজ্ঞদের দ্বারা কঠোরভাবে পরীক্ষিত হয়। অন্যথায়, আমরা এমন AI সিস্টেম তৈরি করার ঝুঁকি নেব যা বিদ্যমান স্বাস্থ্য বৈষম্যকে আরও বাড়িয়ে তুলবে।"
নির্দিষ্ট প্রশ্নের জন্য AI ওভারভিউ সরিয়ে দেওয়া একটি প্রতিক্রিয়াশীল পদক্ষেপ, তবে এটি অন্তর্নিহিত সমস্যার সমাধান করে না। গুগলকে তার AI মডেলগুলোতে সম্ভাব্য পক্ষপাতদুষ্টতাগুলো চিহ্নিত করতে এবং প্রশমিত করতে সক্রিয় হতে হবে। এর জন্য একটি বহুমাত্রিক পদ্ধতির প্রয়োজন, যার মধ্যে রয়েছে প্রশিক্ষণ ডেটা সেটের বৈচিত্র্য বৃদ্ধি, কঠোর মান নিয়ন্ত্রণ ব্যবস্থা বাস্তবায়ন এবং AI-ভিত্তিক তথ্য যাচাই করার জন্য চিকিৎসা বিশেষজ্ঞদের সাথে সহযোগিতা করা।
এই ঘটনাটি সমালোচনামূলক চিন্তাভাবনা এবং মিডিয়া সাক্ষরতার গুরুত্বকেও তুলে ধরে। AI তথ্য পাওয়ার জন্য একটি মূল্যবান হাতিয়ার হতে পারে, তবে এটিকে পেশাদার চিকিৎসা পরামর্শের বিকল্প হিসেবে গণ্য করা উচিত নয়। রোগ নির্ণয় এবং চিকিৎসার জন্য ব্যবহারকারীদের সর্বদা একজন যোগ্য স্বাস্থ্যসেবা প্রদানকারীর সাথে পরামর্শ করা উচিত।
ভবিষ্যতের দিকে তাকালে, স্বাস্থ্যসেবায় AI-এর ভবিষ্যৎ আস্থা তৈরি এবং জবাবদিহিতা নিশ্চিত করার ওপর নির্ভর করে। AI যখন আমাদের জীবনে আরও বেশি করে যুক্ত হচ্ছে, তখন নৈতিক নির্দেশিকা এবং নিয়ন্ত্রক কাঠামো তৈরি করা জরুরি যা রোগীর নিরাপত্তা এবং সুস্থতাকে অগ্রাধিকার দেবে। গুগলের AI ওভারভিউ-এর ঘটনাটি সম্ভাব্য ঝুঁকি এবং দায়িত্বশীল AI বিকাশের জরুরি প্রয়োজনের একটি কঠোর অনুস্মারক হিসাবে কাজ করে। AI-এর সম্ভাবনাকে কাজে লাগানোর চেষ্টা অবশ্যই নির্ভুলতা, ন্যায্যতা এবং স্বচ্ছতার প্রতি অঙ্গীকারের সাথে ভারসাম্যপূর্ণ হতে হবে, বিশেষ করে যখন এটি আমাদের স্বাস্থ্যের সাথে সম্পর্কিত।
Discussion
Join the conversation
Be the first to comment