Agentes de IA Revolucionan las Operaciones Empresariales, Pero Preocupan los Problemas de Gobernanza
Las empresas están adoptando cada vez más agentes de IA para automatizar tareas complejas, pero, según informes recientes, están aumentando las preocupaciones sobre los posibles riesgos y la necesidad de una gobernanza sólida. Este cambio se produce a medida que las empresas lidian con un número abrumador de alertas de seguridad y buscan optimizar las operaciones en campos técnicamente exigentes.
El auge de los agentes de IA está impulsado por la necesidad de gestionar el volumen cada vez mayor de alertas de seguridad. El centro de operaciones de seguridad (SOC) promedio de una empresa recibe 10.000 alertas por día, cada una de las cuales requiere entre 20 y 40 minutos de investigación, según VentureBeat. Sin embargo, incluso los equipos con personal completo solo pueden manejar 22 de estas alertas. Esto ha llevado a situaciones en las que más del 60% de los equipos de seguridad han admitido ignorar alertas que luego resultaron ser críticas.
Para abordar este desafío, los equipos de SOC están automatizando tareas como la clasificación, el enriquecimiento y la escalada, y los analistas humanos están cambiando su enfoque hacia la investigación, la revisión y las decisiones de casos límite, informó VentureBeat. Contextual AI, una startup respaldada por Bezos Expeditions y Bain Capital Ventures, lanzó recientemente Agent Composer, una plataforma diseñada para ayudar a los ingenieros a construir agentes de IA para trabajos que requieren muchos conocimientos en industrias como la aeroespacial y la fabricación de semiconductores, según VentureBeat.
Moonshot AI, una empresa china, actualizó su modelo de código abierto Kimi K2 a Kimi K2.5, transformándolo en un modelo de codificación y visión que admite la orquestación de enjambres de agentes, informó VentureBeat. Esto permite a las empresas crear agentes que pueden pasar automáticamente las acciones en lugar de depender de un tomador de decisiones central. El modelo Kimi K2, en el que se basa Kimi K2.5, tenía 1 billón de parámetros totales y 32 mil millones de parámetros activados, según VentureBeat.
Sin embargo, la creciente dependencia de los agentes de IA también presenta nuevos riesgos de seguridad. MIT Technology Review informó que la coerción de acciones agentivas humano-en-el-bucle y los flujos de trabajo agentivos totalmente autónomos se están convirtiendo en un nuevo vector de ataque para los hackers. El ataque de inyección de comandos Gemini Calendar de 2026 y un hackeo patrocinado por el estado en septiembre de 2025, que utilizó el código Claude de Anthropic como un motor de intrusión automatizado, son ejemplos de tales ataques.
En el caso de Anthropic, los atacantes utilizaron la IA para llevar a cabo del 80 al 90% de la operación, incluido el reconocimiento, el desarrollo de exploits, la recopilación de credenciales, el movimiento lateral y la exfiltración de datos, y los humanos intervinieron solo en un puñado de puntos clave de decisión, según MIT Technology Review. El ataque afectó a aproximadamente 30 organizaciones en los sectores de tecnología, finanzas, manufactura y gobierno.
Gartner predice que más del 40% de las iniciativas de IA agentiva fracasarán debido a la falta de integración de la perspicacia y la intuición humanas, según VentureBeat. Esto destaca la importancia de establecer límites de gobernanza para garantizar que los agentes de IA se utilicen de manera eficaz y ética.
Discussion
Join the conversation
Be the first to comment