ইন্টারনেট, যা একসময় তথ্যের অবাধ প্রবাহের গণতান্ত্রিক শক্তি হিসেবে প্রশংসিত ছিল, আজ তা একটি কঠিন পরিস্থিতির সম্মুখীন। একজন রোগীর কথা ভাবুন, যিনি সাম্প্রতিক রক্তের রিপোর্ট নিয়ে উদ্বিগ্ন এবং স্পষ্ট ধারণা পেতে গুগলের শরণাপন্ন হয়েছেন। তিনি হয়তো "লিভারের রক্ত পরীক্ষার স্বাভাবিক মাত্রা কত" লিখে আশ্বস্ত হতে চাইছেন, কিন্তু তার বদলে পাচ্ছেন একটি এআই-জেনারেটেড সারসংক্ষেপ, যা আপাতদৃষ্টিতে নির্ভরযোগ্য হলেও বিপজ্জনকভাবে অসম্পূর্ণ। সম্প্রতি দ্য গার্ডিয়ান কর্তৃক এই ঘটনাটি তুলে ধরা হলে গুগল নির্দিষ্ট কিছু মেডিকেল অনুসন্ধানের জন্য এআই ওভারভিউ বন্ধ করে দেয়, যা স্বাস্থ্যসেবায় এআই-এর ভূমিকা এবং প্রযুক্তি জায়ান্টদের দায়িত্ব নিয়ে গুরুত্বপূর্ণ প্রশ্ন তুলেছে।
এই ঘটনাটি একটি ক্রমবর্ধমান উদ্বেগকে আরও স্পষ্ট করে তোলে: স্বাস্থ্য বিষয়ক সংবেদনশীল ক্ষেত্রগুলোতে এআই-এর ভুল তথ্য ছড়ানোর সম্ভাবনা। এআই ওভারভিউ, যা দ্রুত উত্তর এবং সারসংক্ষেপ প্রদানের জন্য ডিজাইন করা হয়েছে, তা বিশাল ডেটা সেটের ওপর প্রশিক্ষিত অ্যালগরিদমের ওপর নির্ভরশীল। তবে, এই ডেটা সেট সবসময় নিখুঁত নয়। লিভার ফাংশন পরীক্ষার ক্ষেত্রে, এআই জাতীয়তা, লিঙ্গ, জাতি এবং বয়সের মতো গুরুত্বপূর্ণ বিষয়গুলো বিবেচনা করতে ব্যর্থ হয়েছে, এবং একটি সাধারণ "স্বাভাবিক মাত্রা" উপস্থাপন করেছে যা ব্যক্তিদের তাদের ফলাফল স্বাভাবিক মনে করে বিভ্রান্ত করতে পারে, যদিও বাস্তবে তা নয়।
গার্ডিয়ানের অনুসন্ধানের পর, গুগল দ্রুত চিহ্নিত করা নির্দিষ্ট অনুসন্ধানের জন্য এআই ওভারভিউ সরিয়ে দেয়। গুগলের একজন মুখপাত্র টেকক্রাঞ্চকে বলেছেন যে কোম্পানিটি ক্রমাগত তাদের এআই-চালিত বৈশিষ্ট্যগুলোর গুণমান এবং নির্ভুলতা উন্নত করার জন্য কাজ করছে। তবে, এই লুকোচুরি খেলা চলতেই থাকে। গার্ডিয়ান যেমন আবিষ্কার করেছে, মূল অনুসন্ধানের সামান্য পরিবর্তনে, যেমন "এলএফটি রেফারেন্স রেঞ্জ", এখনও এআই-জেনারেটেড সারসংক্ষেপ পাওয়া যেতে পারে, যা সমস্যাটির ব্যাপক সমাধানে চ্যালেঞ্জ তৈরি করে। যদিও এই পরিবর্তনে এখন আর এআই ওভারভিউ পাওয়া যায় না, তবে ঘটনাটি অনলাইন তথ্যের বিশাল পরিমণ্ডলে এআই-জেনারেটেড কন্টেন্ট নিয়ন্ত্রণ করার অন্তর্নিহিত কঠিন দিকটি উন্মোচন করে।
সমস্যাটি কেবল ভুল ডেটা নিয়ে নয়; এটি এআই-এর অনুভূত কর্তৃত্ব নিয়ে। ব্যবহারকারীরা প্রায়শই এআই-জেনারেটেড সারসংক্ষেপকে নির্বিচারে বিশ্বাস করে, ধরে নেয় যে এগুলো উদ্দেশ্যমূলক এবং ব্যাপক। তবে, এই বিশ্বাস ভুল হতে পারে। স্ট্যানফোর্ড ইউনিভার্সিটির এআই এথিক্সের অধ্যাপক ডঃ এমিলি কার্টার ব্যাখ্যা করেন, "এআই শুধুমাত্র সেই ডেটার মতোই ভালো, যা দিয়ে একে প্রশিক্ষণ দেওয়া হয়েছে।" "যদি ডেটা পক্ষপাতদুষ্ট বা অসম্পূর্ণ হয়, তবে এআই অনিবার্যভাবে সেই পক্ষপাতিত্বগুলো প্রতিফলিত করবে, যা সম্ভাব্য ক্ষতিকারক ফলাফলের দিকে পরিচালিত করতে পারে।"
এর প্রভাব লিভার ফাংশন পরীক্ষার বাইরেও বিস্তৃত। রোগ নির্ণয় থেকে শুরু করে চিকিৎসার পরিকল্পনা ব্যক্তিগতকরণ পর্যন্ত স্বাস্থ্যসেবায় এআই-এর ব্যবহার বাড়ছে। এর সম্ভাব্য সুবিধাগুলো যেমন বিশাল, তেমনি ঝুঁকিগুলোও সমানভাবে গুরুত্বপূর্ণ। যদি এআই সিস্টেমগুলো সাবধানে ডিজাইন, যাচাই এবং নিরীক্ষণ করা না হয়, তবে তারা বিদ্যমান স্বাস্থ্য বৈষম্যকে আরও বাড়িয়ে তুলতে পারে, চিকিৎসা সংক্রান্ত ত্রুটি বাড়াতে পারে এবং স্বাস্থ্যসেবা ব্যবস্থার ওপর থেকে আস্থা কমিয়ে দিতে পারে।
সাম্প্রতিক ঘটনাটি প্রযুক্তি শিল্প এবং নিয়ন্ত্রক সংস্থা উভয়ের জন্যই একটি সতর্কবার্তা। এটি এআই-এর উন্নয়ন এবং প্রয়োগে বৃহত্তর স্বচ্ছতা, জবাবদিহিতা এবং নৈতিক তদারকির প্রয়োজনীয়তার ওপর জোর দেয়, বিশেষ করে স্বাস্থ্যসেবার মতো উচ্চ-ঝুঁকিপূর্ণ ক্ষেত্রগুলোতে। এআই ক্রমাগত বিকশিত হওয়ার সাথে সাথে, এটা মনে রাখা জরুরি যে এটি একটি হাতিয়ার, মানুষের দক্ষতা এবং সমালোচনামূলক চিন্তাভাবনার বিকল্প নয়। এই শক্তিশালী প্রযুক্তি নিরাপদে এবং নৈতিকভাবে ব্যবহার করা হচ্ছে কিনা, তা নিশ্চিত করার দায়িত্ব এআই সিস্টেমের নির্মাতা এবং ব্যবহারকারী উভয়েরই। স্বাস্থ্যসেবায় এআই-এর ভবিষ্যৎ আমাদের ভুল থেকে শেখার এবং এমন সিস্টেম তৈরি করার ক্ষমতার ওপর নির্ভর করে, যা কেবল বুদ্ধিমান নয়, দায়িত্বশীল এবং বিশ্বাসযোগ্যও।
Discussion
Join the conversation
Be the first to comment