Microsoft a corrigé une vulnérabilité dans son assistant IA Copilot qui permettait aux attaquants d'extraire des données sensibles des utilisateurs en un seul clic sur une URL d'apparence légitime. Des chercheurs en sécurité de Varonis ont découvert la faille, démontrant une attaque en plusieurs étapes qui pouvait exfiltrer des données telles que le nom, la localisation et les détails de l'historique de conversation Copilot d'un utilisateur.
L'attaque, une fois lancée par l'utilisateur cliquant sur le lien, continuait de s'exécuter même après la fermeture de la conversation Copilot, ne nécessitant aucune interaction supplémentaire. Selon Dolev Taler, chercheur en sécurité chez Varonis, l'exploit contournait les contrôles de sécurité des terminaux d'entreprise et la détection par les applications de protection des terminaux. "Une fois que nous fournissons ce lien avec cette invite malveillante, l'utilisateur n'a qu'à cliquer sur le lien et la tâche malveillante est immédiatement exécutée", a déclaré Taler à Ars Technica. "Même si l'utilisateur clique simplement sur le lien et ferme immédiatement l'onglet de la conversation Copilot, l'exploit fonctionne toujours."
Ce type de vulnérabilité met en évidence les préoccupations croissantes en matière de sécurité concernant les outils basés sur l'IA et leur intégration dans les flux de travail quotidiens. Copilot, comme d'autres grands modèles linguistiques (LLM), fonctionne en traitant et en répondant aux entrées des utilisateurs, accédant et stockant souvent les données des utilisateurs pour améliorer ses performances et personnaliser les interactions. Ces données, si elles ne sont pas correctement sécurisées, peuvent devenir une cible pour les acteurs malveillants.
Les chercheurs de Varonis, agissant en tant que hackers éthiques, ont démontré comment une URL conçue pouvait être utilisée pour injecter des invites malveillantes dans la session Copilot d'un utilisateur. Ces invites pourraient ensuite être utilisées pour extraire des informations sensibles ou effectuer des actions non autorisées au nom de l'utilisateur. Le fait que l'attaque persiste même après que l'utilisateur a fermé la fenêtre de conversation souligne le potentiel de menaces persistantes dans les environnements basés sur l'IA.
Les implications de cette vulnérabilité vont au-delà des utilisateurs individuels. Dans les environnements d'entreprise, où Copilot et des outils similaires sont de plus en plus utilisés pour des tâches telles que la synthèse de documents, la génération de code et l'analyse de données, une attaque réussie pourrait compromettre des informations commerciales sensibles et la propriété intellectuelle. La capacité de contourner les contrôles de sécurité des terminaux exacerbe encore le risque, car les mesures de sécurité traditionnelles peuvent ne pas être suffisantes pour détecter et prévenir de telles attaques.
Microsoft a publié un correctif pour remédier à la vulnérabilité, soulignant l'importance de maintenir les logiciels à jour. Cependant, l'incident rappelle la nécessité permanente de mesures de sécurité robustes et d'une surveillance continue à l'ère de l'IA. À mesure que les modèles d'IA deviennent plus sophistiqués et intégrés aux systèmes critiques, les chercheurs en sécurité et les développeurs doivent collaborer pour identifier et atténuer les vulnérabilités potentielles avant qu'elles ne puissent être exploitées par des acteurs malveillants. L'incident soulève également des questions sur la responsabilité des développeurs d'IA de garantir la sécurité et la confidentialité des données des utilisateurs, et sur la nécessité de directives et de réglementations claires régissant le développement et le déploiement des technologies d'IA.
Discussion
Join the conversation
Be the first to comment