AI-агенты преобразуют корпоративную безопасность и управление персональными данными, но риски сохраняются
Рост числа агентов искусственного интеллекта (AI) стремительно преобразует операции по обеспечению корпоративной безопасности и управление персональными данными, но эксперты предупреждают о значительных рисках, если не будут внедрены надлежащие меры управления и безопасности. По данным VentureBeat, группы центров управления безопасностью (SOC) все чаще автоматизируют такие задачи, как сортировка, обогащение и эскалация, используя контролируемые AI-агенты для управления огромным объемом оповещений безопасности. В то же время, по данным MIT Technology Review, AI-чат-боты и агенты становятся все более персонализированными, запоминая предпочтения пользователей и используя персональные данные, что вызывает опасения по поводу конфиденциальности.
Переход к автоматизации на основе AI в SOC обусловлен огромным объемом оповещений, с которыми ежедневно сталкиваются группы безопасности. По данным VentureBeat, средний корпоративный SOC получает 10 000 оповещений в день, на каждое из которых требуется от 20 до 40 минут для надлежащего расследования. Однако даже полностью укомплектованные группы могут обработать лишь небольшую часть этих оповещений, что приводит к игнорированию критических оповещений. "Более 60% групп безопасности признались, что игнорировали оповещения, которые впоследствии оказались критическими", - отметили в VentureBeat. Чтобы решить эту проблему, компании обращаются к AI-агентам для выполнения задач аналитика уровня Tier-1, позволяя аналитикам-людям сосредоточиться на более сложных расследованиях и принятии решений в исключительных случаях. Этот подход направлен на сокращение времени реагирования и повышение общей эффективности.
Contextual AI, стартап, поддерживаемый Bezos Expeditions и Bain Capital Ventures, недавно запустил Agent Composer, платформу, предназначенную для помощи инженерам в создании AI-агентов для работы, требующей глубоких знаний, в таких отраслях, как аэрокосмическая и полупроводниковая промышленность, сообщает VentureBeat. Компания считает, что ключом к успешному внедрению AI является создание специализированных агентов, которые могут автоматизировать сложные задачи.
Однако растущая зависимость от AI-агентов также создает новые риски для безопасности. MIT Technology Review сообщила, что злоумышленники используют AI-агентов для проведения сложных кибератак. В сентябре 2025 года спонсируемая государством хакерская группа использовала код Claude от Anthropic в качестве автоматизированного механизма вторжения для нацеливания примерно на 30 организаций в сфере технологий, финансов, производства и правительства. По данным MIT Technology Review, злоумышленники использовали AI для автоматизации 80-90 процентов операций, включая разведку, разработку эксплойтов, сбор учетных данных, перемещение по сети и эксфильтрацию данных, при этом люди вмешивались только в ключевых точках принятия решений. Этот инцидент подчеркивает возможность захвата AI-агентов и использования их в злонамеренных целях.
Кроме того, растущая тенденция персонализации AI-чат-ботов и агентов вызывает опасения по поводу конфиденциальности. Personal Intelligence от Google, анонсированная ранее в этом месяце, позволяет чат-боту Gemini компании использовать историю Gmail, фотографий, поиска и YouTube пользователей для обеспечения более персонализированного и проактивного взаимодействия, сообщает MIT Technology Review. Аналогичные шаги OpenAI, Anthropic и Meta по включению персональных данных в свои AI-продукты поднимают вопросы о том, как эта информация хранится, используется и защищается.
Gartner прогнозирует, что более 40 процентов внедрений agentic AI потерпят неудачу из-за недостаточной интеграции человеческой интуиции и понимания, сообщает VentureBeat. Это подчеркивает важность установления четких границ управления и обеспечения участия аналитиков-людей в процессе принятия решений. Интеграция надзора со стороны человека имеет решающее значение для предотвращения ошибок AI-агентов или их эксплуатации злоумышленниками.
Поскольку AI-агенты становятся все более распространенными как в корпоративной безопасности, так и в управлении персональными данными, важно активно устранять связанные с этим риски. Организации должны внедрить надежные меры безопасности для защиты AI-агентов от компрометации и установить четкие правила использования персональных данных. Невыполнение этого требования может привести к серьезным нарушениям безопасности и конфиденциальности.
Discussion
Join the conversation
Be the first to comment