एक कॉलेज छात्रा के लिए थैंक्सगिविंग का सरप्राइज़ तब एक बुरे सपने में बदल गया जब उसे बोस्टन के हवाई अड्डे पर हिरासत में ले लिया गया और होंडुरास निर्वासित कर दिया गया, एक ऐसा देश जिसे उसने वर्षों से नहीं देखा था। बाबसन कॉलेज में 19 वर्षीय फ्रेशमैन, एनी लूसिया लोपेज़ बेलोज़ा, टेक्सास में अपने परिवार को सरप्राइज़ देने की कोशिश कर रही थी। इसके बजाय, उसने खुद को आव्रजन प्रवर्तन के जटिल जाल में फंसा हुआ पाया, एक ऐसी प्रणाली जिसकी एल्गोरिदम और डेटा-संचालित निर्णय लेने पर निर्भरता के लिए तेजी से जांच की जा रही है। ट्रम्प प्रशासन ने बाद में स्वीकार किया कि निर्वासन एक "गलती" थी, लेकिन यह घटना आव्रजन में प्रौद्योगिकी की भूमिका और पूर्वाग्रह और त्रुटि की संभावना के बारे में महत्वपूर्ण सवाल उठाती है।
यह मामला एक बढ़ती चिंता को उजागर करता है: आव्रजन प्रवर्तन में आर्टिफिशियल इंटेलिजेंस का उपयोग। जबकि AI दक्षता और निष्पक्षता का वादा करता है, निर्वासन जैसी उच्च-दांव वाली स्थितियों में इसका अनुप्रयोग नैतिक और व्यावहारिक चुनौतियां खड़ी करता है। आव्रजन और सीमा शुल्क प्रवर्तन (ICE) संभावित वीज़ा ओवरस्टे की पहचान करने से लेकर यह अनुमान लगाने तक कि कौन से व्यक्तियों के फिर से अपराध करने की सबसे अधिक संभावना है, विभिन्न AI-संचालित उपकरणों का उपयोग करता है। ये उपकरण अक्सर यात्रा इतिहास, आपराधिक रिकॉर्ड और सोशल मीडिया गतिविधि सहित विशाल डेटासेट पर निर्भर करते हैं।
लोपेज़ बेलोज़ा की कहानी इसी पृष्ठभूमि में सामने आती है। 20 नवंबर को हिरासत में लिए जाने के बाद, उसे एक आपातकालीन अदालत के आदेश के बावजूद निर्वासित कर दिया गया, जिसमें सरकार को उसे कम से कम 72 घंटों के लिए अमेरिका में रखने का निर्देश दिया गया था। उचित प्रक्रिया के लिए इस घोर अवहेलना, त्रुटि की स्वीकृति से जटिल, आव्रजन प्रणाली के भीतर मौजूदा असमानताओं को बढ़ाने के लिए एल्गोरिथम पूर्वाग्रह की क्षमता को रेखांकित करती है। माफी के साथ भी, प्रशासन ने तर्क दिया कि त्रुटि को उसके आव्रजन मामले को प्रभावित नहीं करना चाहिए, एक ऐसा रुख जो कई लोगों को परेशान करने वाला लगता है।
MIT में डेटा एथिक्स की प्रोफेसर डॉ. सारा विलियम्स बताती हैं, "आव्रजन में AI के साथ समस्या यह है कि यह अक्सर मौजूदा पूर्वाग्रहों को बढ़ाता है।" "यदि इन एल्गोरिदम को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा ऐतिहासिक भेदभाव के पैटर्न को दर्शाता है, तो AI संभवतः उन पैटर्न को जारी रखेगा। आव्रजन के संदर्भ में, इससे कुछ समुदायों को असमान रूप से लक्षित किया जा सकता है।"
यहां काम करने वाली प्रमुख AI अवधारणाओं में से एक मशीन लर्निंग है। एल्गोरिदम को पैटर्न की पहचान करने और भविष्यवाणियां करने के लिए बड़े डेटासेट पर प्रशिक्षित किया जाता है। हालांकि, अगर डेटा तिरछा है, तो परिणामी भविष्यवाणियां भी तिरछी होंगी। उदाहरण के लिए, यदि किसी एल्गोरिदम को ऐसे डेटा पर प्रशिक्षित किया जाता है जो कुछ राष्ट्रीयताओं और आपराधिक गतिविधि के बीच संबंध दिखाता है, तो यह उन राष्ट्रीयताओं के व्यक्तियों को उनकी वास्तविक व्यवहार की परवाह किए बिना, अनुचित रूप से उच्च जोखिम के रूप में चिह्नित कर सकता है।
समाज के लिए निहितार्थ दूरगामी हैं। जैसे-जैसे AI आव्रजन प्रवर्तन में अधिक एकीकृत होता जाता है, एक ऐसी प्रणाली बनाने का जोखिम होता है जो अपारदर्शी और भेदभावपूर्ण दोनों है। व्यक्तियों को उन एल्गोरिदम द्वारा किए गए निर्णयों के आधार पर प्रवेश से वंचित किया जा सकता है या निर्वासित किया जा सकता है जिन्हें वे समझ या चुनौती नहीं दे सकते हैं। पारदर्शिता की यह कमी उचित प्रक्रिया और निष्पक्षता के मौलिक सिद्धांतों को कमजोर करती है।
AI नैतिकता में हाल के विकास एल्गोरिथम निर्णय लेने में अधिक जवाबदेही और पारदर्शिता के लिए जोर दे रहे हैं। शोधकर्ता AI प्रणालियों में पूर्वाग्रह का पता लगाने और उसे कम करने के लिए तकनीक विकसित कर रहे हैं, और नीति निर्माता यह सुनिश्चित करने के लिए नियमों की खोज कर रहे हैं कि AI का उपयोग जिम्मेदारी से किया जाए। उदाहरण के लिए, यूरोपीय संघ का AI अधिनियम उच्च-जोखिम वाले AI अनुप्रयोगों के लिए सख्त नियमों का प्रस्ताव करता है, जिसमें कानून प्रवर्तन और आव्रजन में उपयोग किए जाने वाले भी शामिल हैं।
लोपेज़ बेलोज़ा का मामला एल्गोरिथम त्रुटि की मानवीय लागत की एक स्पष्ट याद दिलाता है। जबकि AI में आव्रजन प्रवर्तन में दक्षता और सटीकता में सुधार करने की क्षमता है, इसे सावधानी और निरीक्षण के साथ तैनात किया जाना चाहिए। डॉ. विलियम्स का तर्क है, "हमें यह सुनिश्चित करने की आवश्यकता है कि AI का उपयोग निष्पक्षता और उचित प्रक्रिया को बढ़ाने के लिए किया जाए, न कि कमजोर करने के लिए।" "इसके लिए पारदर्शिता, जवाबदेही और पूर्वाग्रह की संभावना को दूर करने की इच्छा की प्रतिबद्धता की आवश्यकता है।" जैसे-जैसे आव्रजन में AI का उपयोग बढ़ता जा रहा है, नैतिक निहितार्थों और व्यक्तियों के अधिकारों की रक्षा के लिए सुरक्षा उपायों की आवश्यकता के बारे में एक व्यापक सामाजिक बातचीत करना महत्वपूर्ण है। आव्रजन प्रवर्तन का भविष्य AI की शक्ति का जिम्मेदारी और समान रूप से उपयोग करने की हमारी क्षमता पर निर्भर करता है।
Discussion
Join the conversation
Be the first to comment