Le problème de contexte de l'IA : des experts soulignent les défis liés à la fourniture de résultats en temps réel et à la sécurisation des systèmes agentiques
Selon des rapports récents et des avis d'experts, les grands modèles linguistiques (LLM) sont confrontés à des défis importants en matière de fourniture de résultats en temps réel et de sécurisation des systèmes agentiques. Bien que les LLM excellent dans le raisonnement, ils ont souvent du mal avec le contexte, ce qui entrave leur capacité à fournir des expériences véritablement assistantes, en particulier dans des environnements dynamiques comme les systèmes de commande en temps réel. Simultanément, les préoccupations concernant la sécurité des systèmes agentiques augmentent, ce qui incite à réclamer une gouvernance robuste et des contrôles aux frontières.
Le « problème de la recette des brownies », comme l'a décrit Anirban Kundu, directeur de la technologie d'Instacart, illustre le défi du contexte. Selon VentureBeat, il ne suffit pas qu'un LLM comprenne simplement une demande de préparation de brownies. Pour être vraiment utile, le modèle doit tenir compte des préférences de l'utilisateur, de la disponibilité sur le marché (œufs biologiques ou ordinaires) et des contraintes géographiques afin de garantir la livrabilité et d'éviter la détérioration des aliments. Instacart vise à jongler avec la latence et le bon mélange de contexte pour offrir des expériences en moins d'une seconde.
Ce manque de contexte s'étend au-delà des systèmes de commande. Raju Malhotra de Certinia, dans VentureBeat, a fait valoir que l'échec de nombreux programmes pilotes d'IA à fournir les résultats promis découle d'un manque de contexte, et non d'un manque d'intelligence des modèles eux-mêmes. Il a attribué cela à des « Franken-stacks » de solutions ponctuelles déconnectées, d'API fragiles et d'intégrations à forte latence qui emprisonnent le contexte dans des technologies disparates.
Pour ajouter à la complexité, MIT Technology Review a souligné le taux exponentiel auquel certaines capacités de l'IA se développent, comme le suit l'organisation à but non lucratif de recherche sur l'IA, METR. Bien que les progrès soient rapides, la nécessité d'une mise en œuvre sécurisée reste primordiale.
La sophistication croissante des agents d'IA a soulevé des inquiétudes quant aux risques potentiels. MIT Technology Review a fait état de la première campagne d'espionnage orchestrée par l'IA et de l'échec du contrôle au niveau des invites. En réponse, les experts préconisent de traiter les agents comme des utilisateurs puissants et semi-autonomes et d'appliquer des règles aux frontières où ils interagissent avec l'identité, les outils, les données et les résultats. Protegrity, dans MIT Technology Review, a présenté un plan en huit étapes que les PDG doivent mettre en œuvre et suivre, en se concentrant sur la gouvernance des systèmes agentiques à la frontière par le biais de trois piliers de contrôle.
De plus, les besoins énergétiques de l'IA sont également de plus en plus pris en compte. MIT Technology Review a noté l'investissement sans précédent dans des centres de données massifs pour soutenir l'appétit informatique de l'IA. Les centrales nucléaires de nouvelle génération sont envisagées comme une source potentielle d'électricité pour ces installations, offrant une construction potentiellement moins chère et un fonctionnement plus sûr par rapport aux anciens modèles. Il s'agissait d'un sujet clé abordé lors d'une récente table ronde exclusive aux abonnés sur les centres de données d'IA à hyperscale et le nucléaire de nouvelle génération.
Les défis entourant le développement de l'IA, de la compréhension contextuelle à la sécurité et à la consommation d'énergie, soulignent la nécessité d'une approche multidimensionnelle. Alors que l'IA continue d'évoluer, il sera essentiel de résoudre ces problèmes pour réaliser son plein potentiel tout en atténuant les risques potentiels.
Discussion
AI Experts & Community
Be the first to comment