Microsoft a corrigé une faille de sécurité dans son assistant IA Copilot qui permettait aux attaquants d'extraire des données sensibles des utilisateurs en un seul clic sur un lien apparemment inoffensif. Des chercheurs en sécurité de Varonis ont découvert la faille, démontrant une attaque en plusieurs étapes qui pouvait dérober le nom, la localisation et des détails de l'historique de chat Copilot d'un utilisateur.
L'attaque, une fois lancée par l'utilisateur cliquant sur le lien, continuait de s'exécuter même après la fermeture de la fenêtre de chat Copilot, ne nécessitant aucune interaction supplémentaire. Cet exploit contournait les contrôles de sécurité des terminaux d'entreprise et échappait à la détection par les applications de protection des terminaux. « Une fois que nous fournissons ce lien avec cette invite malveillante, l'utilisateur n'a qu'à cliquer sur le lien et la tâche malveillante est immédiatement exécutée », a expliqué Dolev Taler, chercheur en sécurité chez Varonis, à Ars Technica. « Même si l'utilisateur clique simplement sur le lien et ferme immédiatement l'onglet de chat Copilot, l'exploit fonctionne toujours. »
La vulnérabilité met en évidence les défis de sécurité complexes inhérents aux outils basés sur l'IA comme Copilot. Ces outils, conçus pour améliorer la productivité et fournir des informations, reposent souvent sur des interactions complexes entre les utilisateurs, les données et les systèmes sous-jacents. Cette complexité peut créer des opportunités pour les attaquants d'exploiter les vulnérabilités et d'obtenir un accès non autorisé à des informations sensibles.
L'attaque souligne l'importance de mesures de sécurité robustes pour les assistants IA. Ces mesures doivent englober non seulement le modèle d'IA lui-même, mais aussi l'infrastructure et les interfaces par lesquelles les utilisateurs interagissent avec le système. Dans ce cas, la vulnérabilité résidait dans la façon dont Copilot traitait et exécutait les commandes déclenchées par un lien apparemment bénin.
L'incident soulève des questions plus larges sur les implications de sécurité et de confidentialité des technologies basées sur l'IA. Alors que l'IA s'intègre de plus en plus dans la vie quotidienne, il est crucial de s'assurer que ces systèmes sont conçus et déployés avec la sécurité comme préoccupation primordiale. Cela comprend des tests rigoureux, une surveillance continue et une gestion proactive des vulnérabilités.
Le développement souligne également le rôle essentiel des hackers éthiques dans l'identification et l'atténuation des risques de sécurité. La découverte de cette vulnérabilité par Varonis a permis à Microsoft de résoudre le problème avant qu'il ne puisse être exploité par des acteurs malveillants. Cette approche collaborative, où les chercheurs en sécurité travaillent avec les fournisseurs de technologie pour améliorer la sécurité, est essentielle pour maintenir un écosystème numérique sécurisé.
Microsoft a depuis publié un correctif pour la vulnérabilité. Il est conseillé aux utilisateurs de s'assurer qu'ils utilisent la dernière version de Copilot pour se protéger contre les attaques potentielles. L'entreprise n'a pas publié de détails spécifiques sur la nature du correctif, probablement pour empêcher les acteurs malveillants de procéder à une rétro-ingénierie du correctif et de développer de nouveaux exploits. De plus amples détails concernant le type spécifique de vulnérabilité et la méthode d'exploitation restent limités, en attendant une analyse et une divulgation plus approfondies de la part de Varonis.
Discussion
Join the conversation
Be the first to comment