Волна киберугроз, подпитываемая быстрым внедрением искусственного интеллекта, выявила уязвимости как в корпоративных, так и в личных вычислительных средах. Недавние инциденты, включая эксплуатацию AI-агента OpenClaw и взлом через популярную платформу для кодирования на основе ИИ, подчеркивают растущие риски, связанные с предоставлением ИИ глубокого доступа к компьютерным системам.
По данным VentureBeat, количество публично развернутых экземпляров AI-агента с открытым исходным кодом OpenClaw выросло примерно с 1000 до более чем 21 000 менее чем за неделю. Это быстрое распространение, в сочетании с простотой установки с помощью однострочных команд, вызывает беспокойство у лидеров в области безопасности. Телеметрия GravityZone от Bitdefender, полученная из бизнес-сред, подтвердила, что сотрудники развертывали OpenClaw на корпоративных машинах, предоставляя автономным агентам доступ к командам оболочки, файловым системам и конфиденциальным данным, таким как токены OAuth для Slack, Gmail и SharePoint. Уязвимость удаленного выполнения кода одним щелчком мыши, CVE-2026-25253, с рейтингом CVSS 8.8, позволяет злоумышленникам похищать токены аутентификации и достигать полного компрометации шлюза за миллисекунды.
Тем временем, ноутбук репортера BBC был успешно взломан через Orchids, платформу для кодирования на основе ИИ, разработанную для пользователей без опыта программирования. Этот инцидент, о котором сообщила BBC, подчеркивает риски инструментов "vibe-coding", которые используются крупными компаниями. Компания, стоящая за Orchids, не ответила на запросы о комментариях.
Распространение инструментов ИИ также влияет на мобильный ландшафт. В то время как замена сервисов Google относительно проста, выход из мобильной операционной системы сложнее, при этом такие варианты, как de-Googled Android и системы на базе Linux, часто не обладают полной функциональностью, согласно VentureBeat. Этот отход от мобильной экосистемы Google создает проблемы из-за функциональных ограничений в альтернативах, ориентированных на конфиденциальность.
В отличие от проблем безопасности, некоторые разработчики сосредоточены на решениях ИИ, ориентированных в первую очередь на конфиденциальность. Одним из примеров является "Off Grid", мобильное приложение, которое позволяет пользователям запускать модели ИИ в автономном режиме на своих устройствах. По данным Hacker News, Off Grid предоставляет полный автономный набор ИИ, включая генерацию текста, генерацию изображений, компьютерное зрение, транскрипцию голоса и анализ документов, все это работает на аппаратном обеспечении телефона.
Растущая сложность разработки программного обеспечения с поддержкой ИИ также стимулирует инновации в области верификации и корректности. По данным Hacker News, проверяемая корректность значительно облегчает совершение больших скачков с LLM. Одна из областей исследований включает цветные сети Петри (CPN), которые изучаются как инструмент для создания более надежных и надежных систем ИИ.
Текущая ситуация подчеркивает растущую гонку между разработкой инструментов ИИ и выявлением их уязвимостей. По мере развития ИИ потребность в надежных мерах безопасности и тщательном рассмотрении привилегий доступа будет становиться все более критичной.
Discussion
AI Experts & Community
Be the first to comment