एक कॉलेज छात्रा का थैंक्सगिविंग का सरप्राइज़ तब बुरे सपने में बदल गया जब उसे बोस्टन के हवाई अड्डे पर हिरासत में ले लिया गया और होंडुरास निर्वासित कर दिया गया। एनी लूसिया लोपेज़ बेलोज़ा, बेबसन कॉलेज में 19 वर्षीय फ्रेशमैन, टेक्सास में अपने परिवार को सरप्राइज़ देने की कोशिश कर रही थी। इसके बजाय, उसने खुद को एक ऐसे देश के विमान में पाया जिसे उसने वर्षों से नहीं देखा था, यह सब उस वजह से हुआ जिसे ट्रम्प प्रशासन ने बाद में "गलती" माना।
लोपेज़ बेलोज़ा का मामला आप्रवासन प्रवर्तन में तेजी से उपयोग किए जा रहे स्वचालित प्रणालियों की जटिलताओं और संभावित कमियों को उजागर करता है। जबकि सरकार ने त्रुटि के लिए माफी मांगी, उसने तर्क दिया कि गलती को उसके आप्रवासन मामले को प्रभावित नहीं करना चाहिए, जिससे जवाबदेही और मानव जीवन को आकार देने में प्रौद्योगिकी की भूमिका के बारे में सवाल उठते हैं।
लोपेज़ बेलोज़ा की परीक्षा 20 नवंबर को शुरू हुई जब उसे बोस्टन के हवाई अड्डे पर हिरासत में लिया गया। अगले दिन जारी एक आपातकालीन अदालत के आदेश के बावजूद, जिसमें सरकार को कानूनी कार्यवाही के लिए उसे अमेरिका में रखने का निर्देश दिया गया था, उसे दो दिन बाद होंडुरास निर्वासित कर दिया गया। इस घटना ने आक्रोश पैदा किया और उचित प्रक्रिया और आप्रवासन प्रणाली के भीतर त्रुटियों की संभावना के बारे में चिंताएं बढ़ गईं।
आप्रवासन में AI पर बढ़ती निर्भरता महत्वपूर्ण सवाल उठाती है। उदाहरण के लिए, चेहरे की पहचान तकनीक को हवाई अड्डों और सीमा पार पर व्यक्तियों की पहचान करने और संभावित सुरक्षा जोखिमों को चिह्नित करने के लिए तैनात किया जा रहा है। वीज़ा आवेदनों का आकलन करने और यह निर्धारित करने के लिए भविष्य कहनेवाला एल्गोरिदम का उपयोग किया जाता है कि कौन से व्यक्ति अपने वीज़ा से अधिक समय तक रहने या खतरा पैदा करने की अधिक संभावना रखते हैं। ये प्रौद्योगिकियां, जबकि दक्षता और सुरक्षा में सुधार करने के लिए अभिप्रेत हैं, अपनी कमियों के बिना नहीं हैं।
AI नैतिकता में विशेषज्ञता रखने वाले कंप्यूटर विज्ञान के प्रोफेसर डॉ. सारा मिलर बताती हैं, "AI सिस्टम केवल उतने ही अच्छे हैं जितना कि उन्हें प्रशिक्षित करने के लिए उपयोग किया जाने वाला डेटा।" "यदि डेटा पक्षपाती है, तो AI उन पूर्वाग्रहों को कायम रखेगा और यहां तक कि बढ़ाएगा भी। आप्रवासन के संदर्भ में, इससे भेदभावपूर्ण परिणाम हो सकते हैं, जहां कुछ समूहों को अनुचित तरीके से लक्षित किया जाता है या अवसरों से वंचित किया जाता है।"
लोपेज़ बेलोज़ा का मामला स्वचालित प्रणालियों में मानव निरीक्षण के महत्व को रेखांकित करता है। जबकि AI बड़ी मात्रा में डेटा को संसाधित कर सकता है और पैटर्न की पहचान कर सकता है, लेकिन इसमें जटिल स्थितियों में निष्पक्ष और सटीक निर्णय लेने के लिए आवश्यक सूक्ष्म समझ और महत्वपूर्ण सोच कौशल की कमी होती है। आप्रवासन वकील डेविड चेन का तर्क है, "AI की सिफारिशों की समीक्षा करने और यह सुनिश्चित करने के लिए कि वे कानूनी और नैतिक सिद्धांतों के अनुरूप हैं, एक मानव को लूप में होना चाहिए।" "अन्यथा, हम दक्षता के नाम पर व्यक्तिगत अधिकारों और उचित प्रक्रिया का त्याग करने का जोखिम उठाते हैं।"
आप्रवासन में AI के उपयोग से पारदर्शिता और जवाबदेही के बारे में भी चिंताएं बढ़ रही हैं। यह समझना मुश्किल हो सकता है कि AI सिस्टम किसी विशेष निर्णय पर कैसे पहुंचा, जिससे उस निर्णय को चुनौती देना या अपील करना मुश्किल हो जाता है। पारदर्शिता की इस कमी से सिस्टम में विश्वास कम हो सकता है और अन्याय की भावना पैदा हो सकती है।
आगे देखते हुए, ऐसे AI सिस्टम विकसित करना महत्वपूर्ण है जो निष्पक्ष, पारदर्शी और जवाबदेह हों। इसके लिए डेटा गुणवत्ता, एल्गोरिदम डिज़ाइन और मानव निरीक्षण पर सावधानीपूर्वक ध्यान देने की आवश्यकता है। इसके लिए नीति निर्माताओं, प्रौद्योगिकीविदों और नागरिक समाज संगठनों के बीच चल रहे संवाद की भी आवश्यकता है ताकि यह सुनिश्चित किया जा सके कि AI का उपयोग इस तरह से किया जाए जो न्याय को बढ़ावा दे और व्यक्तिगत अधिकारों की रक्षा करे। एनी लूसिया लोपेज़ बेलोज़ा का मामला तकनीकी त्रुटियों की मानवीय लागत और AI के युग में अधिक सतर्कता की आवश्यकता की एक स्पष्ट याद दिलाता है।
Discussion
Join the conversation
Be the first to comment