एक छात्र का थैंक्सगिविंग (Thanksgiving) पर चौंकाने वाला सरप्राइज (surprise) देने का सपना तब दुःस्वप्न में बदल गया, जब 19 वर्षीय एनी लूसिया लोपेज़ बेलोज़ा, जो बेब्सन कॉलेज (Babson College) की फ्रेशमैन (freshman) थीं, को बोस्टन के हवाई अड्डे पर हिरासत में ले लिया गया और होंडुरास निर्वासित कर दिया गया। ट्रम्प प्रशासन ने बाद में स्वीकार किया कि निर्वासन एक "गलती" थी, जो अमेरिकी आव्रजन प्रणाली के भीतर की जटिलताओं और संभावित कमियों का एक स्पष्ट उदाहरण है। लेकिन तब क्या होता है जब कृत्रिम बुद्धिमत्ता (आर्टिफिशियल इंटेलिजेंस) द्वारा संचालित एल्गोरिदम इन उच्च-दांव वाले निर्णयों में तेजी से शामिल हो जाते हैं?
लोपेज़ बेलोज़ा का मामला एक बढ़ती चिंता को उजागर करता है: आव्रजन प्रवर्तन में एआई (AI) की भूमिका। जबकि उनके मामले में एआई (AI) की भागीदारी की विशिष्टताएँ अस्पष्ट हैं, व्यापक रुझान जोखिम मूल्यांकन से लेकर संभावित आव्रजन उल्लंघनों की पहचान करने तक के कार्यों के लिए एल्गोरिदम पर बढ़ती निर्भरता की ओर इशारा करता है। विशाल डेटासेट (datasets) पर प्रशिक्षित ये एल्गोरिदम, पैटर्न (patterns) की पहचान करने और परिणामों की भविष्यवाणी करने के लिए डिज़ाइन किए गए हैं। हालाँकि, वे अचूक नहीं हैं।
एआई (AI) सिस्टम केवल उतने ही अच्छे हैं जितना कि उन्हें प्रशिक्षित करने के लिए उपयोग किया गया डेटा। यदि डेटा मौजूदा पूर्वाग्रहों को दर्शाता है, तो एआई (AI) उन पूर्वाग्रहों को कायम रखेगा और यहां तक कि बढ़ा भी देगा। इससे भेदभावपूर्ण परिणाम हो सकते हैं, खासकर हाशिए पर रहने वाले समुदायों के लिए। आव्रजन के संदर्भ में, इसका मतलब यह हो सकता है कि कुछ देशों के या विशिष्ट जनसांख्यिकीय विशेषताओं वाले व्यक्तियों को अनुचित तरीके से उच्च जोखिम के रूप में चिह्नित किया जाता है, जिससे बढ़ी हुई जांच और संभावित निर्वासन हो सकता है।
एमआईटी (MIT) में डेटा एथिक्स (data ethics) की प्रोफेसर (professor) डॉ. सारा मिलर बताती हैं, "एल्गोरिथम पूर्वाग्रह कई क्षेत्रों में एक महत्वपूर्ण चिंता का विषय है, और आव्रजन कोई अपवाद नहीं है।" "ये सिस्टम अनजाने में सामाजिक पूर्वाग्रहों को एन्कोड (encode) कर सकते हैं, जिससे अनुचित या भेदभावपूर्ण परिणाम हो सकते हैं। यह सुनिश्चित करने के लिए पारदर्शिता और जवाबदेही महत्वपूर्ण है कि आव्रजन प्रवर्तन में एआई (AI) का उपयोग जिम्मेदारी से किया जाए।"
आव्रजन में एआई (AI) के उपयोग से उचित प्रक्रिया और पारदर्शिता के बारे में भी सवाल उठते हैं। व्यक्तियों को यह पता नहीं हो सकता है कि उन्हें किसी एल्गोरिदम द्वारा क्यों चिह्नित किया गया था, जिससे निर्णय को चुनौती देना मुश्किल हो जाता है। पारदर्शिता की यह कमी सिस्टम में विश्वास को खत्म कर सकती है और मौलिक अधिकारों को कमजोर कर सकती है।
लोपेज़ बेलोज़ा के मामले में ट्रम्प प्रशासन की त्रुटि की स्वीकृति इन प्रणालीगत विफलताओं की मानवीय लागत को रेखांकित करती है। जबकि प्रशासन ने माफी मांगी, लेकिन साथ ही यह तर्क दिया कि त्रुटि को उनके आव्रजन मामले को प्रभावित नहीं करना चाहिए, जिससे स्थिति को सुधारने के लिए सरकार की प्रतिबद्धता के बारे में और सवाल उठते हैं।
यह घटना निर्णय लेने के लिए पूरी तरह से स्वचालित प्रणालियों पर निर्भर रहने की सीमाओं को भी उजागर करती है। यह सुनिश्चित करने के लिए कि एल्गोरिदम का उपयोग नैतिक और निष्पक्ष रूप से किया जाए, मानवीय निरीक्षण और आलोचनात्मक सोच आवश्यक है। जैसे-जैसे आव्रजन प्रवर्तन में एआई (AI) अधिक प्रचलित होता जा रहा है, पूर्वाग्रह को रोकने, उचित प्रक्रिया की रक्षा करने और जवाबदेही सुनिश्चित करने के लिए स्पष्ट दिशानिर्देश और नियम स्थापित करना महत्वपूर्ण है।
आगे देखते हुए, "व्याख्या योग्य एआई (AI)" (एक्सएआई (XAI)) का विकास एक संभावित समाधान पेश कर सकता है। एक्सएआई (XAI) का उद्देश्य एआई (AI) निर्णय लेने को अधिक पारदर्शी और समझने योग्य बनाना है, जिससे व्यक्तियों को यह देखने की अनुमति मिलती है कि किसी एल्गोरिदम ने विशेष निर्णय क्यों लिया। इससे पूर्वाग्रहों की पहचान करने और उन्हें ठीक करने में मदद मिल सकती है, साथ ही व्यक्तियों को अनुचित परिणामों को चुनौती देने के लिए आवश्यक जानकारी भी मिल सकती है।
एनी लूसिया लोपेज़ बेलोज़ा का मामला एक चेतावनी के रूप में कार्य करता है, जो हमें याद दिलाता है कि प्रौद्योगिकी, शक्तिशाली होने के बावजूद, मानवीय निर्णय और नैतिक विचारों का विकल्प नहीं है। जैसे-जैसे हम आव्रजन प्रवर्तन में एआई (AI) पर तेजी से निर्भर होते जा रहे हैं, यह अनिवार्य है कि हम निष्पक्षता, पारदर्शिता और जवाबदेही को प्राथमिकता दें ताकि यह सुनिश्चित किया जा सके कि सिस्टम सभी के लिए न्याय प्रदान करे।
Discussion
Join the conversation
Be the first to comment