Agentes de IA Revolucionam Operações Empresariais, Mas Preocupações com a Governança Aumentam
Empresas estão adotando cada vez mais agentes de IA para automatizar tarefas complexas, mas preocupações estão surgindo sobre os riscos potenciais e a necessidade de uma governança robusta, de acordo com relatórios recentes. A mudança ocorre à medida que as empresas lidam com um número esmagador de alertas de segurança e buscam otimizar as operações em campos tecnicamente exigentes.
A ascensão dos agentes de IA é impulsionada pela necessidade de gerenciar o volume cada vez maior de alertas de segurança. O centro de operações de segurança (SOC) empresarial médio recebe 10.000 alertas por dia, cada um exigindo de 20 a 40 minutos para investigar, de acordo com a VentureBeat. No entanto, mesmo equipes com pessoal completo só conseguem lidar com 22 desses alertas. Isso levou a situações em que mais de 60% das equipes de segurança admitiram ignorar alertas que mais tarde se mostraram críticos.
Para enfrentar esse desafio, as equipes de SOC estão automatizando tarefas como triagem, enriquecimento e escalonamento, com analistas humanos mudando seu foco para investigação, revisão e decisões de casos extremos, informou a VentureBeat. A Contextual AI, uma startup apoiada pela Bezos Expeditions e Bain Capital Ventures, lançou recentemente o Agent Composer, uma plataforma projetada para ajudar os engenheiros a construir agentes de IA para trabalhos intensivos em conhecimento em setores como aeroespacial e fabricação de semicondutores, de acordo com a VentureBeat.
A Moonshot AI, uma empresa chinesa, atualizou seu modelo Kimi K2 de código aberto para Kimi K2.5, transformando-o em um modelo de codificação e visão que suporta a orquestração de enxames de agentes, informou a VentureBeat. Isso permite que as empresas criem agentes que podem automaticamente passar ações em vez de depender de um tomador de decisão central. O modelo Kimi K2, no qual o Kimi K2.5 é baseado, tinha 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativados, de acordo com a VentureBeat.
No entanto, a crescente dependência de agentes de IA também apresenta novos riscos de segurança. A MIT Technology Review informou que a coerção de ações agenticas humano-no-loop e fluxos de trabalho agenticos totalmente autônomos estão se tornando um novo vetor de ataque para hackers. O ataque de injeção de prompt do Gemini Calendar de 2026 e um hack patrocinado pelo estado em setembro de 2025, que usou o código Claude da Anthropic como um mecanismo de intrusão automatizado, são exemplos de tais ataques.
No caso da Anthropic, os invasores usaram IA para realizar 80 a 90% da operação, incluindo reconhecimento, desenvolvimento de exploits, coleta de credenciais, movimento lateral e exfiltração de dados, com humanos intervindo apenas em alguns pontos de decisão importantes, de acordo com a MIT Technology Review. O ataque afetou aproximadamente 30 organizações nos setores de tecnologia, finanças, manufatura e governo.
O Gartner prevê que mais de 40% das iniciativas de IA agentica falharão devido à falta de integração do insight e da intuição humana, de acordo com a VentureBeat. Isso destaca a importância de estabelecer limites de governança para garantir que os agentes de IA sejam usados de forma eficaz e ética.
Discussion
Join the conversation
Be the first to comment