ডিজিটাল জগত টেক্সটে পরিপূর্ণ, এবং ক্রমবর্ধমানভাবে, কোনটি মানুষের লেখা আর কোনটি মেশিনের, তা বলা কঠিন হয়ে পড়ছে। তবে উইকিপিডিয়ার একদল সম্পাদক, প্রাথমিকভাবে অনলাইন enciclopedia-তে AI-জেনারেটেড আর্টিকেলগুলো পরিষ্কার করার দিকে মনোযোগ দিয়ে, সম্ভবত AI-কে আরও বেশি মানবিক শোনাতে চাওয়ার প্রচেষ্টায় অজান্তেই একটি নতুন প্রতিযোগিতা শুরু করে দিয়েছেন।
২০২৩ সালের শেষ দিক থেকে, WikiProject AI Cleanup-এর স্বেচ্ছাসেবকরা AI দ্বারা লিখিত সন্দেহভাজন আর্টিকেলগুলোকে চিহ্নিত করার জন্য সন্ধান চালাচ্ছেন। ফরাসি উইকিপিডিয়া সম্পাদক ইলিয়াস লেব্লু দ্বারা প্রতিষ্ঠিত এই প্রকল্পটি পর্যালোচনার জন্য ৫০০টিরও বেশি আর্টিকেল চিহ্নিত করেছে। তাদের কাজ ২০২৫ সালের আগস্ট মাসে AI লেখার কিছু সুস্পষ্ট লক্ষণ - ভাষা এবং বিন্যাসের কিছু প্যাটার্ন যা একটি অ-মানবিক উৎসকে প্রকাশ করে - এর একটি আনুষ্ঠানিক তালিকার মাধ্যমে চূড়ান্ত রূপ নেয়।
এখন, সেই তালিকাটি একটি অপ্রত্যাশিত দ্বিতীয় জীবন খুঁজে পেয়েছে। টেক উদ্যোক্তা সিকি চেন Anthropic-এর Claude Code AI সহকারীর জন্য "Humanizer" নামে একটি ওপেন-সোর্স প্লাগ-ইন প্রকাশ করেছেন। এই সহজ কিন্তু উদ্ভাবনী টুলটি উইকিপিডিয়া সম্পাদকদের তালিকা Claude-কে সরবরাহ করে, মূলত AI-কে নির্দেশ দেয়: "এভাবে লিখো না।" চেন GitHub-এ প্লাগ-ইনটি প্রকাশ করেছেন, যেখানে এটি দ্রুত জনপ্রিয়তা লাভ করেছে এবং সোমবার পর্যন্ত ১,৬০০টিরও বেশি স্টার সংগ্রহ করেছে।
চেন X-এ লিখেছেন, "উইকিপিডিয়া AI লেখার লক্ষণগুলোর একটি বিস্তারিত তালিকা তৈরি করেছে, এটা সত্যিই খুব কাজে লেগেছে।" "এতটাই যে আপনি আপনার LLM-কে শুধু বলতে পারেন যে এটা করো না।"
এর তাৎপর্য অনেক। Claude-এর মতো বৃহৎ ভাষা মডেল (LLM) গুলো বিশাল ডেটাসেটের উপর প্রশিক্ষিত, যা মানুষের লেখার শৈলী অনুকরণ করতে শেখে। তবে, তারা প্রায়শই কিছু অনুমানযোগ্য প্যাটার্ন প্রদর্শন করে: অতিরিক্ত আনুষ্ঠানিক ভাষা, পুনরাবৃত্তিমূলক বাক্য গঠন এবং অপ্রয়োজনীয় ভূমিকা যুক্ত করার প্রবণতা। এইগুলোই হল সেই ধরনের অদ্ভুততা যা WikiProject AI Cleanup চিহ্নিত করেছে।
Humanizer, মূলত Claude Code-এর জন্য একটি স্কিল ফাইল, একটি Markdown-ফরম্যাটেড ফাইল ব্যবহার করে লিখিত নির্দেশের একটি তালিকা যোগ করে। এই প্যাটার্নগুলো সক্রিয়ভাবে এড়িয়ে, প্লাগ-ইনটির লক্ষ্য AI-জেনারেটেড টেক্সটকে কম সনাক্তযোগ্য করে তোলা।
এই উন্নয়ন কন্টেন্ট তৈরির ভবিষ্যৎ এবং AI-এর প্রতারণার সম্ভাবনা সম্পর্কে গুরুত্বপূর্ণ প্রশ্ন তোলে। AI মডেলগুলো যখন মানুষের লেখার অনুকরণে আরও অত্যাধুনিক হয়ে উঠছে, তখন খাঁটি এবং কৃত্রিম কন্টেন্টের মধ্যে পার্থক্য করা ক্রমশ কঠিন হয়ে পড়ছে। সাংবাদিকতা এবং একাডেমিক গবেষণা থেকে শুরু করে অনলাইন রিভিউ এবং সোশ্যাল মিডিয়া পর্যন্ত সবকিছুর উপর এর প্রভাব রয়েছে।
WikiProject AI Cleanup-এর প্রচেষ্টা AI-এর যুগে মানুষের তদারকির গুরুত্ব তুলে ধরে। তাদের কাজ কেবল উইকিপিডিয়ার অখণ্ডতা বজায় রাখতে সাহায্য করে না, AI-জেনারেটেড টেক্সটের বৈশিষ্ট্য সম্পর্কে মূল্যবান অন্তর্দৃষ্টিও প্রদান করে। তবে, Humanizer-এর মতো সরঞ্জামগুলোর দ্রুত বিকাশ থেকে বোঝা যায় যে AI ডিটেক্টর এবং AI "হিউম্যানাইজার"-দের মধ্যে ইঁদুর-বেড়াল খেলা সবে শুরু হয়েছে।
এই প্রতিযোগিতার দীর্ঘমেয়াদী পরিণতি অনিশ্চিত। AI কি শেষ পর্যন্ত মানুষের লেখা থেকে আলাদা করা যাবে না এমন হয়ে উঠবে? নাকি ক্রমবর্ধমান প্রযুক্তির সঙ্গে তাল মিলিয়ে চলার জন্য সনাক্তকরণের নতুন পদ্ধতি আবির্ভূত হবে? একটি বিষয় স্পষ্ট: তথ্যের সত্যতা সমালোচনামূলকভাবে মূল্যায়ন এবং যাচাই করার ক্ষমতা আগের চেয়ে আরও বেশি গুরুত্বপূর্ণ হবে।
Discussion
Join the conversation
Be the first to comment