As ameaças impulsionadas por IA estão em ascensão, com agentes de IA de código aberto sendo rapidamente implantados em ambientes corporativos e vulnerabilidades exploradas por atores maliciosos, de acordo com múltiplos relatórios. A rápida disseminação de ferramentas como o OpenClaw, que concede aos agentes autônomos acesso ao shell, privilégios ao sistema de arquivos e acesso a dados sensíveis, tem preocupado os líderes de segurança. Simultaneamente, o uso de IA em operações sensíveis, como uma suposta implantação do Claude da Anthropic pelo exército dos EUA, levanta novas questões éticas e de segurança.
A VentureBeat relatou que o OpenClaw, um agente de IA de código aberto, teve um aumento em suas implantações publicamente expostas de aproximadamente 1.000 para mais de 21.000 em menos de uma semana. Essa rápida adoção, juntamente com a facilidade de instalação por meio de comandos de uma única linha, levou os funcionários a implantar o agente em máquinas corporativas. A telemetria do GravityZone da Bitdefender confirmou que os funcionários estavam implantando o OpenClaw em máquinas corporativas, concedendo acesso a dados sensíveis. A mesma fonte destacou que uma falha de execução de código remoto com um clique, CVE-2026-25253, com classificação CVSS 8.8, permite que os invasores roubem tokens de autenticação e obtenham o comprometimento total do gateway. Uma vulnerabilidade separada de injeção de comando também existe.
A mudança para longe do ecossistema móvel do Google apresenta desafios adicionais, pois as alternativas focadas na privacidade geralmente carecem de funcionalidade completa, de acordo com a VentureBeat e a Wired. Embora a substituição dos serviços do Google seja relativamente simples, escapar do sistema operacional móvel do Google é mais difícil. Opções como sistemas baseados em Android sem Google e sistemas baseados em Linux estão disponíveis, embora o iOS continue sendo a alternativa mais funcional. Essas alternativas priorizam a privacidade removendo os serviços do Google, mas geralmente vêm com limitações de funcionalidade.
O The Guardian relatou que o exército dos EUA utilizou o modelo de IA da Anthropic, Claude, durante uma operação na Venezuela, embora a Anthropic não tenha confirmado seu uso. O Wall Street Journal relatou que o Claude foi implantado por meio da parceria da Anthropic com a Palantir Technologies, apesar das políticas da Anthropic que proíbem o uso da ferramenta para fins violentos ou de vigilância.
O aumento das ameaças impulsionadas por IA se estende além dos ambientes corporativos. A VentureBeat também observou vulnerabilidades em plataformas de IA, incluindo o laptop de um repórter da BBC sendo hackeado por meio de uma ferramenta de codificação de IA e malware Android disfarçado de um aplicativo antivírus falso hospedado no Hugging Face.
O Hacker News destacou a importância da correção verificável no desenvolvimento de software habilitado para LLM, citando o uso de redes de petri coloridas (CPNs) como uma solução potencial para a construção de sistemas de IA mais robustos e seguros. As CPNs, uma extensão das redes de petri, oferecem uma estrutura para a criação de sistemas verificáveis.
Discussion
AI Experts & Community
Be the first to comment