Especialistas em segurança cibernética estão alertando sobre a escalada de ameaças de ferramentas alimentadas por IA, com vulnerabilidades em agentes de código aberto e plataformas de IA expondo os usuários a riscos significativos. Incidentes recentes incluem a invasão de máquinas corporativas por meio de um agente de IA popular, a exploração de uma plataforma de codificação para hackear o laptop de um repórter e a descoberta de malware Android disfarçado de aplicativo antivírus falso.
De acordo com a VentureBeat, o agente de IA de código aberto OpenClaw viu um aumento dramático em implantações, saltando de aproximadamente 1.000 instâncias para mais de 21.000 implantações expostas publicamente em menos de uma semana. Essa rápida adoção, juntamente com uma falha de execução de código remoto de um clique (CVE-2026-25253) com classificação CVSS 8.8, permitiu que os invasores roubassem tokens de autenticação e alcançassem a invasão completa do gateway. A telemetria do GravityZone da Bitdefender confirmou que os funcionários estavam implantando o OpenClaw em máquinas corporativas com comandos de instalação de uma linha, concedendo aos agentes autônomos acesso ao shell, privilégios do sistema de arquivos e tokens OAuth para aplicativos sensíveis como Slack, Gmail e SharePoint.
Enquanto isso, o laptop de um repórter da BBC foi hackeado com sucesso por meio do Orchids, uma plataforma de codificação de IA. Um pesquisador de segurança cibernética explorou uma vulnerabilidade na plataforma, obtendo acesso ao projeto do repórter e modificando seu código, conforme relatado pela BBC Technology. A empresa não respondeu aos pedidos de comentários. Este incidente destaca os riscos associados a plataformas de IA que têm acesso profundo ao computador.
Ainda agravando o cenário de ameaças, pesquisadores de segurança cibernética descobriram malware Android disfarçado de aplicativo antivírus falso hospedado no Hugging Face, uma plataforma de IA popular, de acordo com a Fox News. O aplicativo malicioso, chamado TrustBastion, enganou os usuários para que o instalassem, concedendo aos criminosos acesso aos seus dispositivos. Isso ressalta os perigos de combinar ferramentas de segurança confiáveis com plataformas de IA abertas.
O aumento da IA no desenvolvimento de software também está trazendo novas abordagens para a segurança. O Hacker News discutiu o potencial das Redes de Petri Coloridas (CPNs) no desenvolvimento de software habilitado para LLM, enfatizando a importância da correção verificável. As CPNs, uma extensão das redes de Petri, poderiam oferecer uma abordagem mais estruturada e segura para a construção de sistemas complexos.
Esses incidentes destacam a natureza em evolução das ameaças à segurança cibernética na era da IA. À medida que as ferramentas de IA se tornam mais prevalentes, os invasores estão encontrando novas maneiras de explorar vulnerabilidades e obter acesso a dados confidenciais. A rápida implantação de ferramentas como OpenClaw, juntamente com o potencial de exploração por meio de plataformas como Orchids e Hugging Face, ressalta a necessidade de maior vigilância e medidas de segurança robustas.
Discussion
AI Experts & Community
Be the first to comment