微软修复了其Copilot AI助手中的一个安全漏洞,该漏洞允许攻击者通过点击一个看似无害的链接来提取敏感的用户数据。Varonis的安全研究人员发现了这个缺陷,并演示了一个多阶段攻击如何泄露用户姓名、位置以及Copilot聊天记录中的详细信息。
一旦用户点击链接启动攻击,即使在Copilot聊天窗口关闭后,攻击也会继续运行,无需进一步交互。据Varonis称,该漏洞绕过了企业终端安全控制以及终端保护应用程序通常采用的检测机制。Varonis的安全研究员Dolev Taler在对Ars Technica的声明中表示:“一旦我们提供包含恶意提示的链接,用户只需点击该链接,恶意任务就会立即执行。即使使用者只是点击链接并立即关闭Copilot聊天的选项卡,该漏洞仍然有效。”
该漏洞凸显了像Copilot这样的大型语言模型(LLM)所固有的风险,这些模型正日益集成到日常应用程序中。LLM从庞大的数据集中学习,可以生成类似人类的文本,但它们的复杂性也使它们容易受到无法预见的安全漏洞的影响。这一事件强调了强大的安全措施和持续监控的重要性,以保护AI驱动平台中的用户数据。
该攻击向量利用了Copilot处理和执行嵌入在链接中的指令的方式的弱点。通过在合法的Copilot URL中嵌入恶意提示,研究人员能够触发一系列事件,从而导致数据泄露。这种类型的攻击,被称为提示注入攻击,是AI安全领域日益关注的问题。当攻击者操纵AI模型的输入,使其执行非预期的操作时,例如泄露敏感信息或执行恶意代码,就会发生提示注入。
该漏洞的影响不仅限于个人用户。在企业环境中,Copilot用于访问和处理敏感的业务数据,一次成功的攻击可能导致重大的数据泄露和经济损失。该事件也引发了关于AI驱动助手的安全和隐私的更广泛问题,以及在它们的开发和部署中需要更大的透明度和责任感。
微软已经发布了一个补丁来解决该漏洞,并建议用户将他们的Copilot安装更新到最新版本。该公司还在努力提高其AI平台的安全性,并开发新的方法来检测和预防提示注入攻击。随着AI技术的不断发展,开发人员和安全研究人员必须合作,以识别和减轻潜在的漏洞,确保这些强大的工具被安全和负责任地使用。该事件提醒我们,即使与AI系统看似简单的交互也可能具有重大的安全影响,并且在人工智能时代,保持警惕对于保护用户数据至关重要。
Discussion
Join the conversation
Be the first to comment