تحوّلَت مفاجأة عيد الشكر لطالبة جامعية في سنتها الأولى إلى كابوس عندما احتُجزت في مطار بوسطن ورُحّلت إلى هندوراس، وهي دولة لم ترها منذ سنوات. كانت آني لوسيا لوبيز بيلوزا، وهي طالبة تبلغ من العمر 19 عامًا في كلية بابسون، تحاول ببساطة مفاجأة عائلتها في تكساس. وبدلاً من ذلك، وجدت نفسها عالقة في الشبكة المعقدة لإنفاذ قوانين الهجرة، وهو نظام يتأثر بشكل متزايد بالخوارزميات وصنع القرار القائم على البيانات. اعترفت إدارة ترامب لاحقًا بأن الترحيل كان "خطأ"، لكن الحادث يثير تساؤلات مهمة حول دور التكنولوجيا في الهجرة واحتمال وقوع أخطاء ذات عواقب إنسانية مدمرة.
تسلط القضية الضوء على الاعتماد المتزايد على الذكاء الاصطناعي في إنفاذ قوانين الهجرة. تستخدم وكالات مثل ICE (إدارة الهجرة والجمارك) الخوارزميات لتحديد الأفراد المراد ترحيلهم، وتقييم المخاطر، وحتى التنبؤ بالسلوك المستقبلي. يمكن لهذه الخوارزميات، التي غالبًا ما يتم تدريبها على مجموعات بيانات ضخمة، أن تديم التحيزات الموجودة في البيانات، مما يؤدي إلى نتائج تمييزية. في حالة لوبيز بيلوزا، لا يزال من غير الواضح ما هي العوامل التي أدت إلى احتجازها وترحيلها، لكن الحادث يؤكد على احتمال أن تؤدي الأخطاء الخوارزمية إلى تعطيل حياة الأفراد والعائلات.
بدأت محنة لوبيز بيلوزا في 20 نوفمبر عندما أوقفت في مطار بوسطن. على الرغم من صدور أمر قضائي طارئ في اليوم التالي يأمر الحكومة بإبقائها في الولايات المتحدة لإجراءات قانونية، إلا أنها رُحّلت إلى هندوراس بعد يومين فقط. هذا التجاهل الصارخ للإجراءات القانونية الواجبة يثير مخاوف جدية بشأن مساءلة سلطات الهجرة وفعالية الضمانات القانونية في مواجهة التطورات التكنولوجية السريعة. اعتذار الإدارة، مع الاعتراف بالخطأ، لا يمحو الصدمة والاضطراب الذي عانته لوبيز بيلوزا.
توضح الدكتورة سارة ويليامز، أستاذة أخلاقيات البيانات في معهد ماساتشوستس للتكنولوجيا: "إن استخدام الذكاء الاصطناعي في الهجرة هو صندوق أسود". "غالبًا لا نعرف ما هي البيانات التي يتم تدريب هذه الخوارزميات عليها، وكيف تتخذ القرارات، أو ما هي الضمانات الموجودة لمنع الأخطاء. هذا النقص في الشفافية يجعل من الصعب محاسبة الوكالات عندما تسوء الأمور." تؤكد الدكتورة ويليامز أن التحيز الخوارزمي يمثل مصدر قلق كبير. إذا كانت البيانات المستخدمة لتدريب الخوارزمية تعكس التحيزات المجتمعية القائمة، فمن المحتمل أن تديم الخوارزمية هذه التحيزات بل وتضخمها. على سبيل المثال، إذا تم تدريب خوارزمية على بيانات تستهدف بشكل غير متناسب مجموعات عرقية معينة لانتهاكات قوانين الهجرة، فقد تحدد بشكل غير عادل أفرادًا من تلك المجموعات، بغض النظر عن المخاطر الفعلية التي يشكلونها.
تمتد آثار إنفاذ قوانين الهجرة المدفوعة بالذكاء الاصطناعي إلى ما هو أبعد من الحالات الفردية. إن الاستخدام المتزايد لتقنية التعرف على الوجه، على سبيل المثال، يثير مخاوف بشأن الخصوصية والمراقبة. تعرضت ICE لانتقادات لاستخدامها التعرف على الوجه لمسح قواعد بيانات رخص القيادة، مما قد يؤدي إلى تحديد المهاجرين غير الشرعيين دون علمهم أو موافقتهم. يمكن لهذا النوع من المراقبة الجماعية أن يخلق مناخًا من الخوف وعدم الثقة، لا سيما داخل مجتمعات المهاجرين.
تدفع التطورات الأخيرة في أخلاقيات الذكاء الاصطناعي نحو مزيد من الشفافية والمساءلة في صنع القرار الخوارزمي. يقوم الباحثون بتطوير طرق للكشف عن التحيز في الخوارزميات والتخفيف من حدته، ويستكشف صانعو السياسات لوائح لضمان أن تكون أنظمة الذكاء الاصطناعي عادلة ومنصفة. ومع ذلك، لا تزال هذه الجهود في مراحلها الأولى، ولا تزال هناك تحديات كبيرة. تعد قضية لوبيز بيلوزا بمثابة تذكير صارخ بالتكلفة البشرية للأخطاء الخوارزمية والحاجة الملحة إلى مزيد من الرقابة والتنظيم للذكاء الاصطناعي في الهجرة.
بالنظر إلى المستقبل، من الضروري إعطاء الأولوية للشفافية والمساءلة والإنصاف في استخدام الذكاء الاصطناعي في الهجرة. ويشمل ذلك التأكد من أن الخوارزميات قد تم اختبارها بدقة للتحيز، وأن الأفراد لديهم الحق في الطعن في القرارات الخوارزمية، وأن الضمانات القانونية موجودة لمنع عمليات الترحيل الخاطئة. إن قضية آني لوسيا لوبيز بيلوزا هي دعوة للعمل، تحثنا على فحص دور التكنولوجيا بشكل نقدي في تشكيل سياسة الهجرة والتأكد من أنها تخدم العدالة، وليس الظلم.
Discussion
Join the conversation
Be the first to comment