La administración Trump reconoció ante el tribunal que la deportación de Any Lucía López Belloza, una estudiante universitaria de Massachusetts, fue un error. La disculpa se produjo después de que López Belloza, una estudiante de primer año de 19 años en Babson College, fuera detenida en el aeropuerto de Boston el 20 de noviembre y deportada a Honduras dos días después, a pesar de una orden judicial de emergencia que ordenaba al gobierno mantenerla en los Estados Unidos durante al menos 72 horas.
El error del gobierno ocurrió cuando López Belloza intentaba volar a Texas para sorprender a su familia en el Día de Acción de Gracias. Su familia había emigrado de Honduras a los EE. UU. en 2014, cuando ella tenía siete años. La administración Trump, aunque admitió el error, argumentó que el error no debería afectar su caso de inmigración.
La deportación de López Belloza destaca las complejidades y los posibles escollos dentro de los sistemas automatizados utilizados en la aplicación de las leyes de inmigración. Estos sistemas, que a menudo emplean algoritmos para evaluar el riesgo y determinar la prioridad de la deportación, pueden ser susceptibles a errores debido a datos sesgados o a una programación defectuosa. Este caso plantea preocupaciones sobre la equidad y la transparencia de los procesos de toma de decisiones impulsados por la IA dentro de las agencias gubernamentales.
El uso de la IA en la aplicación de las leyes de inmigración es una tendencia creciente, y las agencias confían cada vez más en los algoritmos para tareas como la identificación de personas que pueden estar violando las leyes de inmigración, la evaluación de las solicitudes de asilo e incluso la predicción de la probabilidad de que una persona se fugue antes de una audiencia judicial. Estos algoritmos se entrenan con vastos conjuntos de datos, que pueden reflejar los sesgos sociales existentes, lo que lleva a resultados discriminatorios.
Los expertos en equidad algorítmica han advertido durante mucho tiempo contra la adopción acrítica de la IA en contextos de toma de decisiones de alto riesgo. Argumentan que los algoritmos deben someterse a pruebas rigurosas para detectar sesgos y que las personas afectadas por las decisiones algorítmicas deben tener el derecho de comprender cómo se tomaron esas decisiones y de impugnarlas si es necesario.
López Belloza se encuentra actualmente con sus abuelos en Honduras. La batalla legal para restablecer su estatus migratorio en los EE. UU. continúa, y su equipo legal argumenta que el error reconocido por el gobierno debe tenerse en cuenta. El caso subraya la necesidad de una mayor supervisión y rendición de cuentas en el uso de la IA en la aplicación de las leyes de inmigración para garantizar que tales errores no se repitan y que las personas sean tratadas de manera justa.
Discussion
Join the conversation
Be the first to comment