В памяти Ани Лусии Лопес Беллозы расплывались мигающие синие и красные огни полицейской машины, резко контрастируя с теплыми объятиями, которые она ожидала от своей семьи в Техасе. Вместо Дня благодарения она оказалась в самолете в Гондурас, страну, которую почти не помнила. Администрация Трампа позже признала, что ее депортация была "ошибкой", – леденящее слово, едва ли отражающее бюрократический кошмар, перевернувший ее жизнь.
Этот случай, кажущийся единичным, высвечивает растущую обеспокоенность в эпоху все более совершенного применения искусственного интеллекта в сфере иммиграционного контроля: потенциальную предвзятость алгоритмов и ослабление контроля со стороны человека. Иммиграционная и таможенная полиция (ICE) использует различные инструменты ИИ для оценки рисков, распознавания лиц и предиктивной полицейской деятельности. Эти инструменты, хотя и предназначены для оптимизации процессов и повышения безопасности, настолько же беспристрастны, насколько беспристрастны данные, на которых они обучаются. Если данные отражают существующие социальные предубеждения, ИИ будет увековечивать и даже усиливать эти предубеждения в процессе принятия решений.
Лопес Беллоза, 19-летняя студентка первого курса колледжа Babson, была задержана в бостонском аэропорту 20 ноября. Несмотря на экстренное постановление суда, вынесенное на следующий день, предписывающее правительству оставить ее в США для судебного разбирательства, она была депортирована в Гондурас. Признание правительством ошибки поднимает важные вопросы о системе сдержек и противовесов, призванной предотвращать подобные инциденты. Как можно было проигнорировать постановление суда? Был ли ИИ задействован в первоначальном решении о ее задержании, и если да, то какие данные способствовали этой оценке?
"Проблема не обязательно в самой технологии, а в том, как она развернута, и в отсутствии прозрачности в отношении ее использования", – объясняет доктор Эвелин Хейс, профессор этики ИИ в Массачусетском технологическом институте (MIT). "Нам нужно понимать, какие данные используют эти алгоритмы, как они принимают решения и кто несет ответственность, когда происходят ошибки. Последствия этих ошибок могут быть разрушительными для отдельных людей и семей".
Например, технология распознавания лиц все чаще используется в аэропортах и на пограничных пунктах. Исследования показали, что эти системы значительно менее точно идентифицируют людей с более темным цветом кожи, что вызывает опасения по поводу расового профилирования. Аналогичным образом, алгоритмы предиктивной полицейской деятельности, которые анализируют данные о преступности для прогнозирования будущих "горячих точек", могут усиливать существующие предубеждения, непропорционально нацеливаясь на общины меньшинств.
Дело Лопес Беллозы подчеркивает острую необходимость в большей прозрачности и подотчетности при использовании ИИ в сфере иммиграционного контроля. Организации по защите гражданских прав призывают к проведению независимых аудитов этих систем для выявления и смягчения потенциальных предубеждений. Они также выступают за более надежную правовую защиту, чтобы гарантировать, что люди имеют право оспаривать решения, принятые на основе ИИ, которые влияют на их жизнь.
Будущее иммиграционного контроля, несомненно, будет определяться ИИ. Однако крайне важно помнить, что технология должна служить человечеству, а не наоборот. По мере того как системы ИИ становятся все более мощными и распространенными, крайне важно, чтобы мы уделяли приоритетное внимание этическим соображениям, обеспечивали справедливость и прозрачность и поддерживали контроль со стороны человека, чтобы предотвратить повторение трагедий, подобных депортации Ани Лусии Лопес Беллозы. "Ошибка", как ее назвала администрация Трампа, служит суровым напоминанием о человеческой цене бесконтрольной алгоритмической власти.
Discussion
Join the conversation
Be the first to comment