L'administration Trump a reconnu devant les tribunaux que l'expulsion d'Any Lucía López Belloza, une étudiante du Massachusetts, était une erreur. Ces excuses font suite à la détention de López Belloza, une étudiante de première année de 19 ans au Babson College, à l'aéroport de Boston le 20 novembre, et à son expulsion vers le Honduras deux jours plus tard, malgré une ordonnance d'urgence du tribunal ordonnant au gouvernement de la maintenir aux États-Unis pendant au moins 72 heures.
L'erreur du gouvernement s'est produite alors que López Belloza tentait de se rendre au Texas par avion pour surprendre sa famille à l'occasion de Thanksgiving. Sa famille avait émigré du Honduras vers les États-Unis en 2014, alors qu'elle avait sept ans. L'administration Trump, tout en admettant l'erreur, a fait valoir que celle-ci ne devrait pas affecter son dossier d'immigration.
L'expulsion de López Belloza met en évidence les complexités et les pièges potentiels des systèmes automatisés utilisés dans l'application de la loi sur l'immigration. Ces systèmes, qui utilisent souvent des algorithmes pour évaluer les risques et déterminer la priorité en matière d'expulsion, peuvent être sujets à des erreurs en raison de données biaisées ou d'une programmation défectueuse. Cette affaire soulève des inquiétudes quant à l'équité et à la transparence des processus décisionnels fondés sur l'IA au sein des agences gouvernementales.
L'utilisation de l'IA dans l'application de la loi sur l'immigration est une tendance croissante, les agences s'appuyant de plus en plus sur des algorithmes pour des tâches telles que l'identification des personnes susceptibles d'enfreindre les lois sur l'immigration, l'évaluation des demandes d'asile et même la prédiction de la probabilité qu'une personne prenne la fuite avant une audience devant un tribunal. Ces algorithmes sont entraînés sur de vastes ensembles de données, qui peuvent refléter les préjugés sociétaux existants, ce qui entraîne des résultats discriminatoires.
Les experts en matière d'équité algorithmique mettent en garde depuis longtemps contre l'adoption irréfléchie de l'IA dans les contextes de prise de décision à enjeux élevés. Ils soutiennent que les algorithmes devraient être rigoureusement testés pour détecter les biais et que les personnes touchées par les décisions algorithmiques devraient avoir le droit de comprendre comment ces décisions ont été prises et de les contester si nécessaire.
López Belloza séjourne actuellement chez ses grands-parents au Honduras. La bataille juridique pour rétablir son statut d'immigrée aux États-Unis se poursuit, son équipe juridique faisant valoir que l'erreur reconnue par le gouvernement devrait être prise en compte. L'affaire souligne la nécessité d'une plus grande surveillance et d'une plus grande responsabilisation dans l'utilisation de l'IA dans l'application de la loi sur l'immigration, afin de garantir que de telles erreurs ne se reproduisent pas et que les individus soient traités équitablement.
Discussion
Join the conversation
Be the first to comment