La sécurité de l'IA à la traîne par rapport à son adoption, rendant les chaînes d'approvisionnement vulnérables
Les entreprises sont confrontées à une menace croissante liée à l'intelligence artificielle, car l'adoption d'agents d'IA dépasse les mesures de sécurité, créant ainsi d'importantes vulnérabilités dans les chaînes d'approvisionnement de l'IA. Selon une étude du 2025 Index Report de l'université de Stanford, alors que quatre applications d'entreprise sur dix intégreront des agents d'IA spécifiques à des tâches cette année, seulement 6 % des organisations ont mis en place une stratégie de sécurité de l'IA avancée.
L'intégration rapide de l'IA, en particulier des grands modèles linguistiques (LLM), a créé un « déficit de visibilité » quant à la manière, au lieu, au moment et aux flux de travail et outils par lesquels ces modèles sont utilisés ou modifiés, a rapporté VentureBeat. Ce manque de transparence, associé à l'absence de Model Software Bill of Materials (SBOM), expose les organisations à des menaces imprévisibles liées à l'IA.
Palo Alto Networks prévoit que 2026 verra les premières grandes actions en justice tenant les dirigeants personnellement responsables des actions malveillantes de l'IA, soulignant ainsi l'urgence d'améliorer la gouvernance de l'IA. La nature accélérée et imprévisible des menaces liées à l'IA signifie que les approches de gouvernance traditionnelles, telles que l'augmentation des budgets ou des effectifs, sont insuffisantes.
Un RSSI a décrit les Model SBOM comme « le Far West de la gouvernance aujourd'hui », soulignant le manque actuel de normalisation et de surveillance dans ce domaine essentiel. Les experts soulignent la nécessité pour les organisations de donner la priorité à la visibilité de la chaîne d'approvisionnement de l'IA afin d'atténuer les risques potentiels et d'éviter les répercussions juridiques.
Discussion
Join the conversation
Be the first to comment