애니 루시아 로페스 벨로사의 기억 속에는 경찰차의 번쩍이는 파란색과 빨간색 불빛만이 흐릿하게 남아 있었다. 텍사스에서 가족들이 따뜻하게 맞아줄 것이라는 기대와는 극명한 대조를 이루는 모습이었다. 추수감사절 만찬 대신, 그녀는 거의 기억조차 나지 않는 온두라스행 비행기에 몸을 싣게 되었다. 트럼프 행정부는 나중에 그녀의 추방이 "실수"였다고 인정했지만, 그 단어로는 그녀의 삶을 뒤흔든 관료적인 악몽을 제대로 담아내지 못한다.
겉으로는 고립된 사건처럼 보이지만, 이 사례는 점점 더 정교해지는 AI 기반 이민 단속 시대에 커져가는 우려를 부각한다. 그것은 바로 알고리즘 편향의 가능성과 인간의 감독 약화이다. 이민세관단속국(ICE)은 위험 평가, 안면 인식, 예측 치안 유지에 다양한 AI 도구를 활용한다. 이러한 도구는 프로세스를 간소화하고 보안을 강화하기 위한 것이지만, 훈련에 사용되는 데이터만큼만 공정하다. 데이터가 기존의 사회적 편견을 반영한다면, AI는 의사 결정 과정에서 이러한 편견을 영속화하고 심지어 증폭시킬 것이다.
19세의 밥슨 칼리지 신입생인 로페스 벨로사는 11월 20일 보스턴 공항에서 구금되었다. 다음 날 정부에 그녀를 법적 절차를 위해 미국에 붙잡아 두도록 지시하는 긴급 법원 명령이 내려졌음에도 불구하고, 그녀는 온두라스로 추방되었다. 정부의 오류 인정은 이러한 사건을 방지하기 위해 마련된 견제와 균형에 대한 중요한 질문을 제기한다. 법원 명령이 어떻게 간과될 수 있었을까? AI가 그녀를 구금하라는 초기 결정에 관여했는지, 그렇다면 어떤 데이터가 그 평가에 기여했을까?
MIT의 AI 윤리학 교수인 에블린 헤이즈 박사는 "문제는 기술 자체가 아니라 기술이 배치되는 방식과 그 사용을 둘러싼 투명성 부족에 있다"고 설명한다. "우리는 이러한 알고리즘이 어떤 데이터를 사용하고 있는지, 어떻게 결정을 내리고 있는지, 그리고 실수가 발생했을 때 누가 책임을 져야 하는지 이해해야 한다. 이러한 오류의 결과는 개인과 가족에게 엄청난 피해를 줄 수 있다."
예를 들어, 안면 인식 기술은 공항과 국경 통과 지점에서 점점 더 많이 사용되고 있다. 연구에 따르면 이러한 시스템은 피부색이 더 어두운 개인을 식별하는 데 정확도가 훨씬 떨어지며, 이는 인종 프로파일링에 대한 우려를 불러일으킨다. 마찬가지로, 범죄 데이터를 분석하여 미래의 핫스팟을 예측하는 예측 치안 유지 알고리즘은 소수 민족 커뮤니티를 불균형적으로 표적으로 삼아 기존의 편견을 강화할 수 있다.
로페스 벨로사 사건은 이민 단속에 AI를 사용하는 데 있어 더 큰 투명성과 책임성이 시급히 필요함을 강조한다. 시민 단체들은 잠재적인 편견을 식별하고 완화하기 위해 이러한 시스템에 대한 독립적인 감사를 요구하고 있다. 또한 개인에게 자신의 삶에 영향을 미치는 AI 기반 결정에 이의를 제기할 수 있는 권리를 보장하기 위해 더 강력한 법적 보호를 옹호한다.
이민 단속의 미래는 의심할 여지 없이 AI에 의해 형성될 것이다. 그러나 기술은 인간을 섬겨야 하며, 그 반대가 되어서는 안 된다는 점을 기억하는 것이 중요하다. AI 시스템이 더욱 강력해지고 널리 보급됨에 따라 윤리적 고려 사항을 우선시하고, 공정성과 투명성을 보장하며, 애니 루시아 로페스 벨로사의 추방과 같은 비극이 다시는 발생하지 않도록 인간의 감독을 유지하는 것이 필수적이다. 트럼프 행정부가 "실수"라고 부른 것은 견제받지 않는 알고리즘 권력의 인간적 대가를 극명하게 상기시켜 준다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요