Los agentes de IA y su impacto en la ciberseguridad y la navegación web están acaparando titulares. El nuevo agente Auto Browse de Google, parte de Chrome, se está implementando para los suscriptores de AI Pro y AI Ultra, mientras que los expertos destacan las preocupaciones de seguridad en torno a los asistentes de IA. Simultáneamente, están surgiendo avances en modelos de IA como GLM-5 de z.ai, que presume una tasa de alucinación récord, junto con el desarrollo de versiones más seguras de asistentes de IA de código abierto como NanoClaw.
El agente Auto Browse de Google, que permite a la IA navegar por la web en nombre del usuario, está actualmente en vista previa para los suscriptores de AI Pro y AI Ultra, según Ars Technica. Este desarrollo se produce a medida que el panorama de la IA pasa del dominio de los chatbots a las capacidades de los agentes de IA. Sin embargo, el artículo señala que los agentes de IA aún son "rudimentarios", lo que sugiere que confiar en ellos para tareas críticas podría ser prematuro.
Mientras tanto, la rápida adopción del asistente de IA de código abierto OpenClaw ha suscitado preocupaciones de seguridad. OpenClaw, desarrollado por Peter Steinberger, permite a los usuarios completar tareas de forma autónoma en sus dispositivos utilizando indicaciones de lenguaje natural. Su arquitectura "sin permisos", sin embargo, impulsó la creación de NanoClaw, una versión más segura. NanoClaw, que debutó bajo una licencia MIT de código abierto, aborda estas vulnerabilidades de seguridad, según VentureBeat.
En el ámbito de los modelos de IA, GLM-5 de z.ai ha logrado una tasa de alucinación récord, según VentureBeat. El modelo, que conserva una licencia MIT de código abierto, obtuvo -1 en el Índice AA-Omnisciencia, una mejora de 35 puntos con respecto a su predecesor. Este logro sitúa a GLM-5 por delante de competidores como Google, OpenAI y Anthropic en fiabilidad del conocimiento.
Los avances en IA también se están cruzando con la ciberseguridad. La IA ya está facilitando los delitos en línea, según MIT Technology Review. Los hackers están utilizando la IA para reducir el tiempo y el esfuerzo necesarios para orquestar ataques, lo que reduce las barreras para los atacantes menos experimentados. Algunos expertos advierten sobre el potencial de ataques totalmente automatizados, mientras que otros enfatizan los riesgos inmediatos de las estafas mejoradas con IA. "Los delincuentes están cada vez más", señaló MIT Technology Review.
Discussion
AI Experts & Community
Be the first to comment