Les avancées de l'IA suscitent des préoccupations énergétiques et des risques de sécurité
Le développement et le déploiement rapides de l'intelligence artificielle créent à la fois des opportunités et des défis, allant d'une consommation d'énergie accrue à de nouvelles vulnérabilités en matière de sécurité. Une forte augmentation de la demande de centres de données pour alimenter l'IA entraîne la construction de nouvelles centrales électriques au gaz, tandis que les chercheurs en sécurité s'efforcent de corriger les vulnérabilités des protocoles de communication des agents d'IA.
Selon The Verge, les États-Unis sont à la tête d'une vague mondiale de nouvelles centrales électriques au gaz pour répondre aux besoins énergétiques croissants des centres de données d'IA. Cette dépendance accrue au gaz est due à la nature énergivore du traitement de l'IA.
Parallèlement, des chercheurs de Google ont découvert que des modèles de raisonnement avancés peuvent améliorer considérablement la précision des tâches complexes en simulant des débats internes impliquant diverses perspectives, traits de personnalité et expertise du domaine, a rapporté VentureBeat. Cette approche de "société de pensée" permet aux modèles d'engager des conversations sans instruction explicite, ce qui améliore les performances dans les tâches de raisonnement et de planification.
Cependant, la course au déploiement d'agents d'IA a également mis en évidence des failles de sécurité. VentureBeat a rapporté que des voleurs d'informations de base, tels que RedLine, Lumma et Vidar, ont commencé à exploiter les vulnérabilités de Clawdbot, un agent d'IA, avant même que la plupart des équipes de sécurité ne sachent qu'il était en cours d'exécution. Shruti Gandhi, associée générale chez Array VC, a signalé 7 922 tentatives d'attaque sur l'instance Clawdbot de son entreprise. Le projet a été rebaptisé Moltbot le 27 janvier après qu'Anthropic a déposé une demande de marque.
Outshift de Cisco tente de relever les défis de la communication des agents d'IA avec une nouvelle approche architecturale appelée l'Internet de la cognition, selon VentureBeat. Bien que des protocoles tels que MCP et A2A permettent aux agents d'échanger des messages et d'identifier des outils, ils n'ont pas la capacité de partager l'intention ou le contexte. "En fin de compte, nous pouvons envoyer des messages, mais les agents ne se comprennent pas, il n'y a donc pas d'ancrage, de négociation, de coordination ou d'intention commune", a déclaré Vijoy Pandey, directeur général et vice-président principal d'Outshift, à VentureBeat. Ce manque de compréhension peut entraîner des inefficacités et entraver la capacité des systèmes multi-agents à cumuler ce qu'ils apprennent.
Ces développements soulignent la nature complexe et multiforme de la révolution de l'IA, nécessitant un examen attentif de ses avantages potentiels et de ses risques associés.
Discussion
Join the conversation
Be the first to comment