AI-агенты развиваются, вызывая опасения по поводу конфиденциальности и безопасности
Агенты искусственного интеллекта (AI) быстро развиваются, предлагая повышенную персонализацию и автоматизацию, но также вызывая опасения по поводу уязвимостей в области конфиденциальности и безопасности. Недавние разработки включают запуск новых платформ AI-агентов и обнаружение сложных атак, использующих AI в злонамеренных целях.
Airtable, платформа для управления рабочими процессами, представила Superagent во вторник, 28 января 2026 года, автономного исследовательского агента, который развертывает команды специализированных AI-агентов, работающих параллельно для выполнения исследовательских задач, согласно VentureBeat. Хоуи Лю, соучредитель Airtable, объяснил, что оркестратор Superagent обеспечивает полную видимость всего процесса выполнения, создавая "связный путь", где все решения принимает оркестратор.
Эти достижения в области AI-агентов совпадают с растущими опасениями по поводу того, как эти системы "запоминают" пользовательские данные и предпочтения. MIT Technology Review сообщило, что такие компании, как Google, OpenAI, Anthropic и Meta, добавляют новые способы для своих AI-продуктов запоминать и использовать личные данные и предпочтения людей. Google ранее в январе 2026 года анонсировала Personal Intelligence, новый способ взаимодействия людей с чат-ботом Gemini, который использует их Gmail, фотографии, историю поиска и YouTube, чтобы сделать Gemini более личным, проактивным и мощным.
Однако эта повышенная персонализация повышает риски для конфиденциальности. MIT Technology Review отметило необходимость подготовки к новым рискам, которые могут привнести эти сложные технологии.
Кроме того, AI-агенты становятся мишенями для злоумышленников. В сентябре 2025 года спонсируемая государством хакерская атака использовала код Claude от Anthropic в качестве автоматизированного механизма вторжения, затронув примерно 30 организаций в сфере технологий, финансов, производства и правительства, согласно MIT Technology Review. Злоумышленники использовали AI для выполнения от 80 до 90 процентов операций, включая разведку, разработку эксплойтов, сбор учетных данных, перемещение по сети и эксфильтрацию данных, при этом люди вмешивались лишь в нескольких ключевых точках принятия решений. Этот инцидент подчеркнул возможность перехвата AI-агентов для шпионских кампаний.
Тем временем такие компании, как Questom, сосредотачиваются на разработке AI-агентов для конкретных бизнес-приложений. Questom, стартап, финансируемый Y Combinator, ищет инженера-основателя для помощи в создании основных систем, которые обеспечивают работу их AI-агентов для B2B-продаж, согласно Hacker News.
По мере того, как AI-агенты становятся все более распространенными, решение проблем конфиденциальности и безопасности, которые они создают, будет иметь решающее значение.
Discussion
Join the conversation
Be the first to comment