تلاشت الأضواء الزرقاء والحمراء الوامضة لسيارة الشرطة في ذاكرة آني لوسيا لوبيز بيلوزا، في تناقض صارخ مع الحضن الدافئ الذي كانت تتوقعه من عائلتها في تكساس. فبدلاً من عشاء عيد الشكر، وجدت نفسها على متن طائرة إلى هندوراس، وهي دولة بالكاد تتذكرها. اعترفت إدارة ترامب لاحقًا بأن ترحيلها كان "خطأ"، وهي كلمة تبعث على القشعريرة بالكاد تجسد الكابوس البيروقراطي الذي قلب حياتها رأسًا على عقب.
تسلط هذه القضية، التي تبدو معزولة، الضوء على قلق متزايد في عصر إنفاذ قوانين الهجرة المدفوعة بالذكاء الاصطناعي المتطور بشكل متزايد: احتمال التحيز الخوارزمي وتآكل الرقابة البشرية. تستخدم إدارة الهجرة والجمارك (ICE) أدوات الذكاء الاصطناعي المختلفة لتقييم المخاطر والتعرف على الوجوه والمراقبة التنبؤية. هذه الأدوات، على الرغم من أنها تهدف إلى تبسيط العمليات وتعزيز الأمن، إلا أنها غير متحيزة بقدر البيانات التي يتم تدريبها عليها. إذا كانت البيانات تعكس التحيزات المجتمعية القائمة، فسوف يعمل الذكاء الاصطناعي على إدامة هذه التحيزات، بل وتضخيمها، في عملية اتخاذ القرار.
تم احتجاز لوبيز بيلوزا، وهي طالبة جديدة تبلغ من العمر 19 عامًا في كلية بابسون، في مطار بوسطن في 20 نوفمبر. على الرغم من أمر المحكمة الطارئ الصادر في اليوم التالي والذي يأمر الحكومة بإبقائها في الولايات المتحدة لإجراءات قانونية، فقد تم ترحيلها إلى هندوراس. يثير اعتراف الحكومة بالخطأ أسئلة مهمة حول الضوابط والتوازنات المعمول بها لمنع وقوع مثل هذه الحوادث. كيف يمكن التغاضي عن أمر المحكمة؟ هل كان الذكاء الاصطناعي متورطًا في القرار الأولي باحتجازها، وإذا كان الأمر كذلك، فما هي البيانات التي ساهمت في هذا التقييم؟
توضح الدكتورة إيفلين هايز، أستاذة أخلاقيات الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا: "المشكلة ليست بالضرورة في التكنولوجيا نفسها، ولكن في الطريقة التي يتم بها نشرها والافتقار إلى الشفافية المحيطة باستخدامها". "نحن بحاجة إلى فهم البيانات التي تستخدمها هذه الخوارزميات، وكيف تتخذ القرارات، ومن هو المسؤول عندما تحدث الأخطاء. يمكن أن تكون عواقب هذه الأخطاء مدمرة للأفراد والعائلات".
على سبيل المثال، يتم استخدام تقنية التعرف على الوجوه بشكل متزايد في المطارات والمعابر الحدودية. أظهرت الدراسات أن هذه الأنظمة أقل دقة بشكل ملحوظ في تحديد الأفراد ذوي البشرة الداكنة، مما يثير مخاوف بشأن التنميط العنصري. وبالمثل، يمكن لخوارزميات المراقبة التنبؤية، التي تحلل بيانات الجريمة للتنبؤ بالبؤر الساخنة المستقبلية، أن تعزز التحيزات القائمة من خلال استهداف مجتمعات الأقليات بشكل غير متناسب.
تؤكد قضية لوبيز بيلوزا على الحاجة الملحة إلى مزيد من الشفافية والمساءلة في استخدام الذكاء الاصطناعي في إنفاذ قوانين الهجرة. تدعو منظمات الحقوق المدنية إلى إجراء عمليات تدقيق مستقلة لهذه الأنظمة لتحديد وتخفيف التحيزات المحتملة. كما أنهم يدعون إلى توفير حماية قانونية أقوى لضمان حصول الأفراد على الحق في الطعن في القرارات التي يحركها الذكاء الاصطناعي والتي تؤثر على حياتهم.
مما لا شك فيه أن مستقبل إنفاذ قوانين الهجرة سيتشكل بالذكاء الاصطناعي. ومع ذلك، من الأهمية بمكان أن نتذكر أن التكنولوجيا يجب أن تخدم الإنسانية، وليس العكس. مع ازدياد قوة أنظمة الذكاء الاصطناعي وانتشارها، من الضروري أن نعطي الأولوية للاعتبارات الأخلاقية، وضمان العدالة والشفافية، والحفاظ على الرقابة البشرية لمنع وقوع مآس مثل ترحيل آني لوسيا لوبيز بيلوزا مرة أخرى. إن "الخطأ"، كما وصفته إدارة ترامب، بمثابة تذكير صارخ بالتكلفة البشرية لقوة الخوارزميات الجامحة.
Discussion
Join the conversation
Be the first to comment