A Microsoft corrigiu uma vulnerabilidade em seu assistente de IA Copilot que permitia que invasores extraíssem dados confidenciais do usuário por meio de um único clique em uma URL aparentemente legítima. Pesquisadores de segurança da Varonis descobriram a falha, demonstrando um ataque em vários estágios que poderia exfiltrar dados como o nome, a localização e detalhes do histórico de bate-papo do Copilot de um usuário.
O ataque, uma vez iniciado pelo usuário ao clicar no link, continuava a ser executado mesmo após o fechamento do bate-papo do Copilot, não exigindo mais nenhuma interação. De acordo com o pesquisador de segurança da Varonis, Dolev Taler, o exploit ignorou os controles de segurança de endpoint corporativos e a detecção por aplicativos de proteção de endpoint. "Depois que entregamos este link com este prompt malicioso, o usuário só precisa clicar no link e a tarefa maliciosa é executada imediatamente", disse Taler ao Ars Technica. "Mesmo que o usuário apenas clique no link e feche imediatamente a guia do bate-papo do Copilot, o exploit ainda funciona."
Este tipo de vulnerabilidade destaca as crescentes preocupações de segurança em torno de ferramentas baseadas em IA e sua integração em fluxos de trabalho diários. O Copilot, como outros modelos de linguagem grandes (LLMs), opera processando e respondendo às entradas do usuário, muitas vezes acessando e armazenando dados do usuário para melhorar seu desempenho e personalizar as interações. Esses dados, se não forem devidamente protegidos, podem se tornar um alvo para agentes maliciosos.
Os pesquisadores da Varonis, atuando como hackers white-hat, demonstraram como um URL criado poderia ser usado para injetar prompts maliciosos na sessão do Copilot de um usuário. Esses prompts poderiam então ser usados para extrair informações confidenciais ou realizar ações não autorizadas em nome do usuário. O fato de o ataque persistir mesmo depois que o usuário fechou a janela de bate-papo ressalta o potencial de ameaças persistentes em ambientes orientados por IA.
As implicações desta vulnerabilidade vão além dos usuários individuais. Em ambientes corporativos, onde o Copilot e ferramentas semelhantes são cada vez mais usados para tarefas como resumo de documentos, geração de código e análise de dados, um ataque bem-sucedido pode comprometer informações comerciais confidenciais e propriedade intelectual. A capacidade de ignorar os controles de segurança de endpoint agrava ainda mais o risco, pois as medidas de segurança tradicionais podem não ser suficientes para detectar e prevenir tais ataques.
A Microsoft lançou uma correção para resolver a vulnerabilidade, enfatizando a importância de manter o software atualizado. No entanto, o incidente serve como um lembrete da necessidade contínua de medidas de segurança robustas e monitoramento contínuo na era da IA. À medida que os modelos de IA se tornam mais sofisticados e integrados em sistemas críticos, pesquisadores e desenvolvedores de segurança devem trabalhar juntos para identificar e mitigar possíveis vulnerabilidades antes que possam ser exploradas por agentes maliciosos. O incidente também levanta questões sobre a responsabilidade dos desenvolvedores de IA em garantir a segurança e a privacidade dos dados do usuário, e a necessidade de diretrizes e regulamentos claros que regem o desenvolvimento e a implantação de tecnologias de IA.
Discussion
Join the conversation
Be the first to comment