Флуоресцентные лампы бостонского международного аэропорта Логан расплывались в глазах Эни Лусии Лопес Беллоза, 19-летней студентки первого курса колледжа, крепко сжимавшей свой посадочный талон. Внутри нее бурлило волнение: она собиралась удивить свою семью в Техасе на День благодарения. Но эта радость испарилась в одно мгновение. Вместо теплых объятий ее ждало задержание, и в течение 48 часов она уже летела не в Техас, а в Гондурас, страну, которую почти не знала. Администрация Трампа позже признала, что эта депортация была "ошибкой", что является пугающим признанием, поднимающим серьезные вопросы о пересечении иммиграционного контроля, технологий и прав человека.
Этот случай, хотя и кажется единичным, подчеркивает растущую обеспокоенность: все большую зависимость от алгоритмов и искусственного интеллекта в иммиграционных процессах, часто с ограниченной прозрачностью и подотчетностью. Хотя правительство утверждало, что ошибка не должна повлиять на ее иммиграционное дело, инцидент высвечивает потенциал алгоритмической предвзятости и разрушительные последствия, когда эти системы дают сбой.
Мытарства Лопес Беллоза начались 20 ноября. Несмотря на наличие экстренного судебного приказа, предписывающего правительству оставить ее в США, она была депортирована. Скорость и эффективность, с которыми это произошло, даже перед лицом юридического вмешательства, свидетельствуют о системе, ставящей во главу угла быструю обработку, а не надлежащую правовую процедуру. Эта эффективность часто преподносится как преимущество систем, управляемых искусственным интеллектом, но она также может маскировать лежащие в основе недостатки и предвзятости.
Конкретные инструменты искусственного интеллекта, использованные в деле Лопес Беллоза, остаются неясными. Однако иммиграционные ведомства все чаще используют алгоритмы для оценки рисков, распознавания лиц и предиктивной полицейской деятельности. Эти инструменты анализируют огромные наборы данных для выявления лиц, представляющих угрозу или подверженных риску нарушения иммиграционных законов. Проблема в том, что эти наборы данных часто отражают существующие социальные предубеждения, что приводит к дискриминационным результатам. Например, если алгоритм обучен на данных, которые непропорционально нацелены на лиц определенной этнической принадлежности, он, вероятно, увековечит эту предвзятость в своих прогнозах.
"Искусственный интеллект хорош настолько, насколько хороши данные, на которых он обучен", - объясняет доктор Мередит Уиттакер, ведущий исследователь в области искусственного интеллекта и президент Института AI Now. "Если данные отражают исторические предубеждения, искусственный интеллект усилит эти предубеждения, что приведет к несправедливым и дискриминационным результатам. В контексте иммиграции это может иметь разрушительные последствия".
Технология распознавания лиц, еще один инструмент, все чаще используемый в аэропортах и пограничном контроле, особенно подвержена ошибкам, особенно при идентификации лиц из маргинализированных сообществ. Исследования показали, что эти системы значительно менее точны при идентификации цветных людей, что вызывает опасения по поводу ошибочной идентификации и неправомерного задержания.
Использование искусственного интеллекта в иммиграции также вызывает опасения по поводу прозрачности и подотчетности. Алгоритмы, используемые правительственными учреждениями, часто являются проприетарными, что затрудняет понимание того, как принимаются решения, и оспаривание потенциально предвзятых результатов. Отсутствие прозрачности подрывает надлежащую правовую процедуру и затрудняет привлечение этих систем к ответственности.
"Нам нужна большая прозрачность и надзор за системами искусственного интеллекта, используемыми в иммиграционном контроле", - утверждает Элеонора Пауэлл, старший аналитик по вопросам политики в Фонде электронных рубежей. "Люди имеют право понимать, как эти системы принимают решения, влияющие на их жизнь, и они должны иметь возможность оспаривать эти решения".
Дело Лопес Беллоза служит суровым напоминанием о потенциальных ловушках, связанных с использованием искусственного интеллекта в принятии важных решений. Хотя искусственный интеллект обещает повышение эффективности и точности, он также несет в себе риск увековечивания предвзятости и подрыва основных прав. По мере того как искусственный интеллект все больше интегрируется в иммиграционные процессы, крайне важно уделять приоритетное внимание прозрачности, подотчетности и надзору со стороны человека, чтобы обеспечить справедливое и беспристрастное использование этих систем. Будущее иммиграционного контроля зависит от нашей способности ответственно использовать возможности искусственного интеллекта, смягчая его риски и обеспечивая, чтобы технологии служили человечеству, а не наоборот. "Ошибка" в деле Лопес Беллоза должна стать катализатором для более широкого разговора об этических последствиях искусственного интеллекта в иммиграции и острой необходимости в гарантиях защиты уязвимых групп населения.
Discussion
Join the conversation
Be the first to comment