Применение дронов в войне в Украине развивается с внедрением искусственного интеллекта, позволяющего дронам автономно идентифицировать, отслеживать и поражать цели. Эти дроны с искусственным интеллектом представляют собой значительный отход от традиционных систем с дистанционным управлением, поднимая сложные вопросы о будущем войны и роли человеческого контроля.
Недавний пример этой технологии в действии связан с украинским пилотом дрона, известным только как Липа, и его штурманом, Бобром, которым было поручено уничтожить российскую команду дронов, действовавшую возле Борисовки, села на границе с Россией. Предыдущие попытки нацелиться на команду с использованием стандартных дронов-камикадзе потерпели неудачу из-за российских технологий глушения, которые нарушают радиосвязь между пилотом и дроном. Команда Липы была оснащена дроном Bumblebee, специализированной системой, предоставленной предприятием под руководством Эрика Шмидта, бывшего генерального директора Google.
Ключевое преимущество Bumblebee заключается в его возможностях искусственного интеллекта. В отличие от традиционных дронов, которые полагаются на постоянное руководство человека, эти дроны могут захватывать цель и автономно преследовать и поражать ее, даже в условиях сильных помех от средств радиоэлектронной борьбы. Эта автономия достигается за счет сложных алгоритмов, которые позволяют дрону анализировать визуальные данные, идентифицировать предварительно запрограммированные цели и перемещаться к ним без постоянной связи с оператором-человеком.
«Использование искусственного интеллекта в дронах меняет динамику поля боя, — сказал Питер Сингер, стратег из New America, аналитического центра. — Это позволяет быстрее реагировать и действовать в районах, где связь ухудшена или отсутствует».
Разработка и развертывание дронов с искусственным интеллектом в Украине подчеркивает растущую тенденцию в военной технике. В то время как сторонники утверждают, что эти системы могут повысить эффективность и снизить риск для солдат, критики выражают обеспокоенность по поводу потенциальных непредвиденных последствий и этических последствий делегирования смертельных решений машинам.
Одна из проблем — потенциальная предвзятость алгоритмов. Если искусственный интеллект обучен на предвзятых данных, это может привести к неправильной идентификации целей или непропорциональному вреду определенным группам населения. Другая проблема — отсутствие ответственности в случае ошибки. Определение ответственности, когда автономный дрон совершает ошибку, является сложной юридической и этической задачей.
Использование искусственного интеллекта в дронах также поднимает призрак автономных систем вооружений, часто называемых «роботами-убийцами». Эти системы смогут самостоятельно выбирать и поражать цели без какого-либо вмешательства человека. Многие эксперты и организации призывают к запрету такого оружия, утверждая, что оно по своей сути опасно и может привести к гонке вооружений.
«Нам необходимо серьезно поговорить об ограничениях искусственного интеллекта в войне, — заявила Мэри Уэрхэм, директор по адвокации отдела вооружений Human Rights Watch. — Идея делегирования машинам решений о жизни и смерти вызывает глубокую тревогу».
Ситуация в Украине ускоряет разработку и развертывание дронов с искусственным интеллектом. Поскольку обе стороны стремятся получить преимущество на поле боя, использование этих технологий, вероятно, возрастет, еще больше стирая границы между человеческим и машинным контролем в войне. Долгосрочные последствия этой тенденции пока неясны, но очевидно, что искусственный интеллект готов играть все более значительную роль в формировании будущего конфликтов.
Discussion
Join the conversation
Be the first to comment