Les agents d'IA révolutionnent les opérations des entreprises, mais des préoccupations de gouvernance se profilent
Les entreprises adoptent de plus en plus les agents d'IA pour automatiser des tâches complexes, mais des préoccupations concernant les risques potentiels et la nécessité d'une gouvernance robuste se font jour, selon des rapports récents. Ce changement intervient alors que les entreprises sont confrontées à un nombre considérable d'alertes de sécurité et cherchent à rationaliser leurs opérations dans des domaines techniquement exigeants.
L'essor des agents d'IA est motivé par la nécessité de gérer le volume toujours croissant d'alertes de sécurité. Le centre d'opérations de sécurité (SOC) d'une entreprise moyenne reçoit 10 000 alertes par jour, chacune nécessitant entre 20 et 40 minutes d'investigation, selon VentureBeat. Cependant, même les équipes dotées d'un personnel complet ne peuvent traiter que 22 de ces alertes. Cela a conduit à des situations où plus de 60 % des équipes de sécurité ont admis avoir ignoré des alertes qui se sont avérées critiques par la suite.
Pour relever ce défi, les équipes SOC automatisent des tâches telles que le triage, l'enrichissement et l'escalade, les analystes humains se concentrant sur l'investigation, l'examen et les décisions relatives aux cas limites, a rapporté VentureBeat. Contextual AI, une startup soutenue par Bezos Expeditions et Bain Capital Ventures, a récemment lancé Agent Composer, une plateforme conçue pour aider les ingénieurs à créer des agents d'IA pour les travaux à forte intensité de connaissances dans des secteurs tels que l'aérospatiale et la fabrication de semi-conducteurs, selon VentureBeat.
Moonshot AI, une entreprise chinoise, a mis à niveau son modèle open source Kimi K2 vers Kimi K2.5, le transformant en un modèle de codage et de vision qui prend en charge l'orchestration d'essaims d'agents, a rapporté VentureBeat. Cela permet aux entreprises de créer des agents capables de se transmettre automatiquement des actions au lieu de s'en remettre à un décideur central. Le modèle Kimi K2, sur lequel est basé Kimi K2.5, comptait 1 000 milliards de paramètres au total et 32 milliards de paramètres activés, selon VentureBeat.
Cependant, la dépendance croissante aux agents d'IA présente également de nouveaux risques de sécurité. MIT Technology Review a rapporté que la coercition des actions agentiques humaines en boucle et des flux de travail agentiques entièrement autonomes deviennent un nouveau vecteur d'attaque pour les pirates. L'attaque par injection d'invite Gemini Calendar de 2026 et un piratage commandité par l'État en septembre 2025, qui utilisait le code Claude d'Anthropic comme moteur d'intrusion automatisé, sont des exemples de telles attaques.
Dans le cas d'Anthropic, les attaquants ont utilisé l'IA pour mener à bien 80 à 90 % de l'opération, y compris la reconnaissance, le développement d'exploits, la collecte d'informations d'identification, le mouvement latéral et l'exfiltration de données, les humains n'intervenant qu'à une poignée de points de décision clés, selon MIT Technology Review. L'attaque a touché environ 30 organisations dans les secteurs de la technologie, de la finance, de la fabrication et du gouvernement.
Gartner prévoit que plus de 40 % des initiatives d'IA agentique échoueront en raison d'un manque d'intégration de la perspicacité et de l'intuition humaines, selon VentureBeat. Cela souligne l'importance d'établir des limites de gouvernance pour garantir que les agents d'IA sont utilisés de manière efficace et éthique.
Discussion
Join the conversation
Be the first to comment