Les agents d'IA et leur impact sur la cybersécurité et la navigation web font les gros titres. Le nouvel agent Auto Browse de Google, intégré à Chrome, est déployé auprès des abonnés AI Pro et AI Ultra, tandis que les experts soulignent les préoccupations de sécurité entourant les assistants d'IA. Simultanément, des avancées dans les modèles d'IA comme GLM-5 de z.ai, qui affiche un taux d'hallucination record, émergent, parallèlement au développement de versions plus sécurisées d'assistants d'IA open-source comme NanoClaw.
L'agent Auto Browse de Google, qui permet à l'IA de naviguer sur le web pour le compte d'un utilisateur, est actuellement en prévisualisation pour les abonnés AI Pro et AI Ultra, selon Ars Technica. Ce développement intervient alors que le paysage de l'IA passe de la domination des chatbots aux capacités des agents d'IA. Cependant, l'article note que les agents d'IA sont encore "bruts", suggérant que s'appuyer sur eux pour des tâches critiques pourrait être prématuré.
Parallèlement, l'adoption rapide de l'assistant d'IA open-source OpenClaw a soulevé des préoccupations de sécurité. OpenClaw, développé par Peter Steinberger, permet aux utilisateurs d'accomplir de manière autonome des tâches sur leurs appareils en utilisant des invites en langage naturel. Son architecture "sans permission", cependant, a suscité la création de NanoClaw, une version plus sécurisée. NanoClaw, qui a fait ses débuts sous une licence open source MIT, corrige ces vulnérabilités de sécurité, selon VentureBeat.
Dans le domaine des modèles d'IA, GLM-5 de z.ai a atteint un taux d'hallucination record, selon VentureBeat. Le modèle, qui conserve une licence open source MIT, a obtenu un score de -1 à l'indice AA-Omniscience, une amélioration de 35 points par rapport à son prédécesseur. Cette réalisation place GLM-5 devant des concurrents comme Google, OpenAI et Anthropic en matière de fiabilité des connaissances.
Les progrès de l'IA se croisent également avec la cybersécurité. L'IA facilite déjà les crimes en ligne, selon MIT Technology Review. Les pirates informatiques utilisent l'IA pour réduire le temps et les efforts nécessaires à l'orchestration des attaques, abaissant les barrières pour les attaquants moins expérimentés. Certains experts mettent en garde contre le potentiel d'attaques entièrement automatisées, tandis que d'autres soulignent les risques immédiats des escroqueries améliorées par l'IA. "Les criminels sont de plus en plus", a noté le MIT Technology Review.
Discussion
AI Experts & Community
Be the first to comment