A Microsoft corrigiu uma vulnerabilidade em seu assistente de IA Copilot que permitia que invasores extraíssem dados confidenciais do usuário com um único clique em um URL aparentemente legítimo. Pesquisadores de segurança da Varonis descobriram a falha, demonstrando um ataque de vários estágios que poderia roubar o nome, a localização e detalhes do histórico de bate-papo do Copilot de um usuário.
O ataque persistia mesmo depois que o usuário fechava a janela de bate-papo do Copilot, não exigindo nenhuma interação adicional além do clique inicial no link incorporado em um e-mail. De acordo com a Varonis, o exploit ignorou os controles de segurança de endpoint corporativos e os mecanismos de detecção normalmente empregados por aplicativos de proteção de endpoint. "Depois que entregamos este link com este prompt malicioso, o usuário só precisa clicar no link e a tarefa maliciosa é executada imediatamente", disse Dolev Taler, pesquisador de segurança da Varonis, em um comunicado à Ars Technica. "Mesmo que o usuário apenas clique no link e feche imediatamente a guia do bate-papo do Copilot, o exploit ainda funciona."
A vulnerabilidade destaca os riscos inerentes associados a grandes modelos de linguagem (LLMs) como o Copilot, que estão cada vez mais integrados aos fluxos de trabalho diários. Os LLMs aprendem com vastos conjuntos de dados, permitindo que gerem texto semelhante ao humano e automatizem tarefas. No entanto, sua complexidade também cria oportunidades de exploração. Neste caso, o ataque aproveitou um prompt elaborado incorporado em um link legítimo do Copilot para iniciar uma cadeia de ações que levam à exfiltração de dados.
Este incidente ressalta a importância de medidas de segurança robustas para ferramentas baseadas em IA. Embora a IA ofereça benefícios significativos em produtividade e automação, ela também introduz novos vetores de ataque que os sistemas de segurança tradicionais podem não abordar adequadamente. A capacidade deste exploit de ignorar aplicativos de proteção de endpoint levanta preocupações sobre a eficácia dos paradigmas de segurança atuais diante de ataques sofisticados impulsionados por IA.
A descoberta desta vulnerabilidade e sua subsequente correção pela Microsoft representam um esforço contínuo para proteger os sistemas de IA. À medida que a IA se torna mais difundida, a colaboração entre pesquisadores de segurança e provedores de tecnologia é crucial para identificar e mitigar riscos potenciais. O incidente serve como um lembrete de que mesmo interações aparentemente inocentes com sistemas de IA podem ter consequências não intencionais, enfatizando a necessidade de conscientização e cautela do usuário ao interagir com conteúdo gerado por IA. Mais detalhes sobre a natureza específica da vulnerabilidade e as medidas tomadas pela Microsoft para corrigi-la devem ser divulgados nas próximas semanas.
Discussion
Join the conversation
Be the first to comment