एनी लूसिया लोपेज़ बेलोज़ा की यादों में पुलिस कार की नीली और लाल बत्तियाँ धुंधली हो गईं, जो टेक्सास में अपने परिवार से मिलने की उनकी उम्मीदों के विपरीत थीं। थैंक्सगिविंग डिनर के बजाय, उन्होंने खुद को होंडुरास के एक विमान में पाया, एक ऐसा देश जिसे वह मुश्किल से ही याद कर पाई थीं। ट्रम्प प्रशासन ने बाद में स्वीकार किया कि उनका निर्वासन एक "गलती" थी, एक ऐसा भयावह शब्द जो उस नौकरशाही दुःस्वप्न को मुश्किल से ही दर्शाता है जिसने उनके जीवन को उलट दिया।
यह मामला, देखने में भले ही अलग-थलग लगे, लेकिन तेज़ी से परिष्कृत AI-संचालित आव्रजन प्रवर्तन के युग में एक बढ़ती चिंता को उजागर करता है: एल्गोरिथम पूर्वाग्रह की संभावना और मानवीय निरीक्षण का क्षरण। आव्रजन और सीमा शुल्क प्रवर्तन (ICE) जोखिम मूल्यांकन, चेहरे की पहचान और भविष्य कहने वाली पुलिसिंग के लिए विभिन्न AI उपकरणों का उपयोग करता है। ये उपकरण, हालांकि प्रक्रियाओं को सुव्यवस्थित करने और सुरक्षा बढ़ाने के लिए अभिप्रेत हैं, केवल उतने ही निष्पक्ष हैं जितना कि वे जिस डेटा पर प्रशिक्षित हैं। यदि डेटा मौजूदा सामाजिक पूर्वाग्रहों को दर्शाता है, तो AI अपने निर्णय लेने में उन पूर्वाग्रहों को कायम रखेगा, और यहां तक कि बढ़ा भी देगा।
19 वर्षीय बेबसन कॉलेज की छात्रा लोपेज़ बेलोज़ा को 20 नवंबर को बोस्टन के हवाई अड्डे पर हिरासत में लिया गया था। अगले दिन जारी किए गए एक आपातकालीन अदालत के आदेश के बावजूद, जिसमें सरकार को कानूनी कार्यवाही के लिए उसे अमेरिका में रखने का निर्देश दिया गया था, उसे होंडुरास निर्वासित कर दिया गया। सरकार की त्रुटि की स्वीकृति उन जाँचों और संतुलनों के बारे में महत्वपूर्ण सवाल उठाती है जो ऐसी घटनाओं को रोकने के लिए मौजूद हैं। अदालत के आदेश को कैसे अनदेखा किया जा सकता है? क्या उसे हिरासत में लेने के प्रारंभिक निर्णय में AI शामिल था, और यदि हां, तो उस मूल्यांकन में किस डेटा का योगदान था?
MIT में AI नैतिकता की प्रोफेसर डॉ. एवलिन हेस बताती हैं, "समस्या जरूरी नहीं कि तकनीक ही हो, बल्कि जिस तरह से इसे तैनात किया गया है और इसके उपयोग के आसपास पारदर्शिता की कमी है।" "हमें यह समझने की जरूरत है कि ये एल्गोरिदम किस डेटा का उपयोग कर रहे हैं, वे कैसे निर्णय ले रहे हैं, और गलतियाँ होने पर कौन जवाबदेह है। इन त्रुटियों के परिणाम व्यक्तियों और परिवारों के लिए विनाशकारी हो सकते हैं।"
उदाहरण के लिए, चेहरे की पहचान तकनीक का उपयोग हवाई अड्डों और सीमा चौकियों पर तेजी से किया जा रहा है। अध्ययनों से पता चला है कि ये प्रणालियाँ गहरे रंग की त्वचा वाले व्यक्तियों की पहचान करने में काफी कम सटीक हैं, जिससे नस्लीय प्रोफाइलिंग के बारे में चिंताएँ बढ़ रही हैं। इसी तरह, भविष्य कहने वाले पुलिसिंग एल्गोरिदम, जो भविष्य के हॉटस्पॉट का पूर्वानुमान लगाने के लिए अपराध डेटा का विश्लेषण करते हैं, अल्पसंख्यक समुदायों को असमान रूप से लक्षित करके मौजूदा पूर्वाग्रहों को मजबूत कर सकते हैं।
लोपेज़ बेलोज़ा मामला आव्रजन प्रवर्तन में AI के उपयोग में अधिक पारदर्शिता और जवाबदेही की तत्काल आवश्यकता को रेखांकित करता है। नागरिक अधिकार संगठन इन प्रणालियों के संभावित पूर्वाग्रहों की पहचान करने और उन्हें कम करने के लिए स्वतंत्र ऑडिट का आह्वान कर रहे हैं। वे मजबूत कानूनी सुरक्षा की भी वकालत करते हैं ताकि यह सुनिश्चित किया जा सके कि व्यक्तियों को AI-संचालित निर्णयों को चुनौती देने का अधिकार है जो उनके जीवन को प्रभावित करते हैं।
आव्रजन प्रवर्तन का भविष्य निस्संदेह AI द्वारा आकार दिया जाएगा। हालाँकि, यह याद रखना महत्वपूर्ण है कि प्रौद्योगिकी को मानवता की सेवा करनी चाहिए, न कि इसके विपरीत। जैसे-जैसे AI प्रणालियाँ अधिक शक्तिशाली और व्यापक होती जाती हैं, यह अनिवार्य है कि हम नैतिक विचारों को प्राथमिकता दें, निष्पक्षता और पारदर्शिता सुनिश्चित करें, और एनी लूसिया लोपेज़ बेलोज़ा के निर्वासन जैसी त्रासदियों को फिर से होने से रोकने के लिए मानवीय निरीक्षण बनाए रखें। ट्रम्प प्रशासन ने इसे जो "गलती" कहा, वह अनियंत्रित एल्गोरिथम शक्ति की मानवीय लागत की एक स्पष्ट याद दिलाती है।
Discussion
Join the conversation
Be the first to comment