Las amenazas impulsadas por la IA están aumentando, con agentes de IA de código abierto desplegándose rápidamente en entornos empresariales y vulnerabilidades explotadas por actores maliciosos, según múltiples informes. La rápida proliferación de herramientas como OpenClaw, que otorga a los agentes autónomos acceso a la shell, privilegios del sistema de archivos y acceso a datos confidenciales, tiene preocupados a los líderes de seguridad. Simultáneamente, el uso de la IA en operaciones sensibles, como el despliegue reportado de Claude de Anthropic por el ejército estadounidense, plantea más preguntas éticas y de seguridad.
VentureBeat informó que OpenClaw, un agente de IA de código abierto, vio aumentar sus despliegues expuestos públicamente de aproximadamente 1.000 a más de 21.000 en menos de una semana. Esta rápida adopción, junto con la facilidad de instalación a través de comandos de una sola línea, ha llevado a los empleados a desplegar el agente en máquinas corporativas. La telemetría de GravityZone de Bitdefender confirmó que los empleados estaban desplegando OpenClaw en máquinas corporativas, otorgando acceso a datos confidenciales. La misma fuente destacó que una falla de ejecución remota de código con un solo clic, CVE-2026-25253, con una calificación CVSS de 8.8, permite a los atacantes robar tokens de autenticación y lograr la completa vulneración de la puerta de enlace. También existe una vulnerabilidad de inyección de comandos separada.
El alejamiento del ecosistema móvil de Google presenta desafíos adicionales, ya que las alternativas centradas en la privacidad a menudo carecen de funcionalidad completa, según VentureBeat y Wired. Si bien reemplazar los servicios de Google es relativamente sencillo, escapar del sistema operativo móvil de Google es más difícil. Hay opciones disponibles como los sistemas basados en Android sin Google y los sistemas basados en Linux, aunque iOS sigue siendo la alternativa más funcional. Estas alternativas priorizan la privacidad al eliminar los servicios de Google, pero a menudo conllevan limitaciones en la funcionalidad.
The Guardian informó que el ejército estadounidense utilizó el modelo de IA de Anthropic, Claude, durante una redada en Venezuela, aunque Anthropic no ha confirmado su uso. The Wall Street Journal informó que Claude se desplegó a través de la asociación de Anthropic con Palantir Technologies, a pesar de las políticas de Anthropic que prohíben el uso de la herramienta con fines violentos o de vigilancia.
El aumento de las amenazas impulsadas por la IA se extiende más allá de los entornos corporativos. VentureBeat también señaló vulnerabilidades en plataformas de IA, incluido el hackeo del portátil de un reportero de la BBC a través de una herramienta de codificación de IA y malware de Android disfrazado de una aplicación antivirus falsa alojada en Hugging Face.
Hacker News destacó la importancia de la corrección verificable en el desarrollo de software habilitado para LLM, citando el uso de redes de Petri coloreadas (CPN) como una posible solución para construir sistemas de IA más robustos y seguros. Las CPN, una extensión de las redes de Petri, ofrecen un marco para crear sistemas verificables.
Discussion
AI Experts & Community
Be the first to comment