ভাবুন তো, এমন একটা পৃথিবী যেখানে এআই (কৃত্রিম বুদ্ধিমত্তা) শুধু আপনাকে ইমেইল লিখতে সাহায্য করছে বা আপনার পরবর্তী পছন্দের সিনেমা দেখাচ্ছে না, বরং গুরুত্বপূর্ণ পরিকাঠামোর ডিজিটাল সুরক্ষাব্যবস্থাগুলোতে সক্রিয়ভাবে হানা দিচ্ছে অথবা লক্ষ লক্ষ মানুষের মানসিক সুস্থতাকে সূক্ষ্মভাবে প্রভাবিত করছে। এটা কোনো কল্পনাবিজ্ঞান সিনেমার দৃশ্য নয়; এটি একটি সম্ভাব্য বাস্তবতা, যা নিয়ে OpenAI কাজ করছে, এবং সেই কারণেই তারা একজন নতুন "প্রস্তুতির প্রধান" (Head of Preparedness) খুঁজছে।
ক্রমবর্ধমান অত্যাধুনিক এআই মডেলগুলোর উত্থান একটি দ্বিধারী তলোয়ারের মতো। একদিকে, এই মডেলগুলো জটিল সমস্যা সমাধানের অভূতপূর্ব সুযোগ দেয়, রোগ নিরাময় থেকে শুরু করে শক্তি ব্যবহারের সঠিক পরিমাণ নির্ধারণের মতো কাজও করা যায়। অন্যদিকে, তারা নতুন এবং সম্ভাব্য বিপর্যয়কর ঝুঁকি তৈরি করে। জিপিটি-৪-এর মতো যুগান্তকারী এআই তৈরির পেছনের সংস্থা OpenAI এই অন্তর্নিহিত টানাপোড়েনটি উপলব্ধি করে এবং এই অচেনা পথে চালিত করার জন্য সক্রিয়ভাবে কাউকে খুঁজছে।
OpenAI-এর চাকরির তালিকা অনুযায়ী, প্রস্তুতির প্রধানের ভূমিকা দুর্বলচিত্তদের জন্য নয়। এই ব্যক্তি কোম্পানির "প্রস্তুতি কাঠামো" (preparedness framework) কার্যকর করার জন্য দায়ী থাকবেন। এই কাঠামোটি "ফ্রন্টিয়ার ক্যাপাবিলিটিস" (frontier capabilities) -এর কারণে হওয়া সম্ভাব্য বিপদগুলো ট্র্যাক (নজর রাখা) এবং মোকাবিলার জন্য ডিজাইন করা হয়েছে। ফ্রন্টিয়ার ক্যাপাবিলিটিস হলো এআই-এর সেই অগ্রগতি, যা মারাত্মক ক্ষতির কারণ হতে পারে। এই ক্ষতি বিভিন্ন রূপে দেখা দিতে পারে, যেমন - এআই-চালিত সাইবার আক্রমণ, যা আগে অজানা দুর্বলতাগুলোকে কাজে লাগাতে পারে অথবা ক্রমবর্ধমান বিশ্বাসযোগ্য এবং ব্যক্তিগতকৃত কন্টেন্টের মাধ্যমে মানুষের আচরণকে সূক্ষ্মভাবে প্রভাবিত করতে পারে।
OpenAI-এর সিইও স্যাম অল্টম্যান সম্প্রতি X-এ একটি পোস্টে স্বীকার করেছেন, "এআই মডেলগুলো কিছু বাস্তব চ্যালেঞ্জ তৈরি করতে শুরু করেছে।" তিনি বিশেষভাবে মানসিক স্বাস্থ্যের ওপর মডেলগুলোর সম্ভাব্য প্রভাব এবং কম্পিউটার সুরক্ষায় এআই এতটাই দক্ষ হয়ে ওঠার ঝুঁকির কথা তুলে ধরেছেন যে এটি গুরুত্বপূর্ণ দুর্বলতা খুঁজে বের করতে এবং কাজে লাগাতে ব্যবহার করা যেতে পারে। অল্টম্যানের পদক্ষেপ নেওয়ার আহ্বান স্পষ্ট: "যদি আপনি বিশ্বকে সাইবার নিরাপত্তা রক্ষাকারীদের অত্যাধুনিক সক্ষমতা দিয়ে সাহায্য করতে চান, একই সাথে এটা নিশ্চিত করতে চান যে আক্রমণকারীরা ক্ষতির জন্য এটি ব্যবহার করতে পারবে না, অথবা জৈবিক সক্ষমতা প্রকাশের ক্ষেত্রে এবং স্ব-উন্নতিতে সক্ষম সিস্টেমগুলোর নিরাপত্তা সম্পর্কে আত্মবিশ্বাস অর্জন করতে চান, তাহলে আবেদন করার কথা বিবেচনা করুন।"
এখানে চ্যালেঞ্জ হলো দ্রুত বিকশিত হওয়া এআই-এর অপ্রত্যাশিত পরিণতিগুলো অনুমান করা। "এআই নিরাপত্তা" (AI safety) ধারণাটির কথা বিবেচনা করুন, এটি এমন একটি ক্ষেত্র, যা নিশ্চিত করে যে এআই সিস্টেমগুলো মানুষের মূল্যবোধ এবং লক্ষ্যের সাথে সামঞ্জস্যপূর্ণ। এআই সুরক্ষার মূল সমস্যাগুলোর মধ্যে একটি হলো "অ্যালাইনমেন্ট প্রবলেম" (alignment problem) - কীভাবে আমরা নিশ্চিত করব যে একটি অতিবুদ্ধিমান এআই, যা দ্রুত গতিতে শিখতে এবং মানিয়ে নিতে সক্ষম, সেটি এমনভাবে কাজ করবে যা মানবতার জন্য উপকারী?
প্রস্তুতির প্রধানকে এআই সুরক্ষার প্রযুক্তিগত দিকগুলোর পাশাপাশি বৃহত্তর সামাজিক প্রভাবগুলোও বিবেচনা করতে হবে। উদাহরণস্বরূপ, আমরা কীভাবে এআইকে ভুল তথ্য এবং অপপ্রচার ছড়াতে বাধা দেব? আমরা কীভাবে নিশ্চিত করব যে এআই-চালিত অটোমেশন (স্বয়ংক্রিয়তা) চাকরির বাজারে বিদ্যমান বৈষম্যকে আরও বাড়িয়ে তুলবে না? এগুলো জটিল প্রশ্ন, যেগুলোর সহজ উত্তর নেই এবং এর জন্য একটি বহু-বিভাগীয় পদ্ধতির প্রয়োজন, যেখানে প্রযুক্তিগত দক্ষতার সাথে নৈতিক বিবেচনাগুলোকেও একত্রিত করা হয়।
২০২৩ সালে প্রস্তুতি দল তৈরি করা থেকে বোঝা যায় যে OpenAI সক্রিয়ভাবে এই ঝুঁকিগুলো মোকাবিলা করতে প্রতিশ্রুতিবদ্ধ। এই দলটিকে উন্নত এআই-এর সম্ভাব্য বিপদগুলো অধ্যয়ন করতে এবং সেগুলো কমানোর কৌশল তৈরি করার দায়িত্ব দেওয়া হয়েছে। প্রস্তুতির প্রধান এই প্রচেষ্টার শীর্ষে থাকবেন, দলের গবেষণা পরিচালনা করবেন এবং এআই নিরাপত্তা সম্পর্কে OpenAI-এর সামগ্রিক দৃষ্টিভঙ্গি তৈরি করবেন।
ভবিষ্যতে, এআই বিকাশে প্রস্তুতির ভূমিকা আরও গুরুত্বপূর্ণ হয়ে উঠবে। এআই মডেলগুলো যত বেশি শক্তিশালী হবে এবং আমাদের জীবনে আরও বেশি করে যুক্ত হবে, সুবিধা এবং ক্ষতি উভয়ের সম্ভাবনাই তত বেশি বাড়বে। OpenAI-এর একজন নতুন প্রস্তুতির প্রধানের অনুসন্ধান এই বাস্তবতার স্বীকৃতি এবং এটি কৃত্রিম বুদ্ধিমত্তার বিকাশে নিরাপত্তা ও নৈতিক বিষয়গুলোকে অগ্রাধিকার দেওয়ার গুরুত্বের ওপর জোর দেয়। এআই-এর ভবিষ্যৎ কেবল তার প্রযুক্তিগত সক্ষমতার ওপরই নির্ভর করে না, বরং এর সম্ভাব্য ঝুঁকিগুলো অনুমান করতে এবং কমাতে পারার ওপরও নির্ভর করে।
Discussion
Join the conversation
Be the first to comment