Agentes de IA Transformando la Seguridad Empresarial y la Gestión de Datos Personales, Pero los Riesgos Son Inminentes
El auge de los agentes de inteligencia artificial está transformando rápidamente las operaciones de seguridad empresarial y la gestión de datos personales, pero los expertos advierten sobre riesgos significativos si no se implementan medidas de seguridad y gobernanza adecuadas. Los equipos del centro de operaciones de seguridad (SOC) están automatizando cada vez más tareas como la clasificación, el enriquecimiento y la escalada utilizando agentes de IA supervisados para gestionar el abrumador volumen de alertas de seguridad, según VentureBeat. Simultáneamente, los chatbots y agentes de IA se están volviendo más personalizados, recordando las preferencias del usuario y extrayendo datos personales, lo que plantea preocupaciones sobre la privacidad, según MIT Technology Review.
El cambio hacia la automatización impulsada por la IA en los SOC se debe al gran volumen de alertas que enfrentan los equipos de seguridad a diario. El SOC empresarial promedio recibe 10,000 alertas por día, cada una de las cuales requiere de 20 a 40 minutos para investigarse adecuadamente, informó VentureBeat. Sin embargo, incluso los equipos con personal completo solo pueden manejar una fracción de estas alertas, lo que lleva a que se ignoren las alertas críticas. "Más de 60 equipos de seguridad han admitido haber ignorado alertas que luego resultaron ser críticas", señaló VentureBeat. Para abordar este desafío, las empresas están recurriendo a agentes de IA para manejar las tareas de los analistas de nivel 1, lo que permite a los analistas humanos centrarse en investigaciones más complejas y decisiones de casos límite. Este enfoque tiene como objetivo reducir los tiempos de respuesta y mejorar la eficiencia general.
Contextual AI, una startup respaldada por Bezos Expeditions y Bain Capital Ventures, lanzó recientemente Agent Composer, una plataforma diseñada para ayudar a los ingenieros a construir agentes de IA para trabajos intensivos en conocimiento en industrias como la aeroespacial y la fabricación de semiconductores, informó VentureBeat. La compañía cree que la clave para la adopción exitosa de la IA radica en permitir la creación de agentes especializados que puedan automatizar tareas complejas.
Sin embargo, la creciente dependencia de los agentes de IA también introduce nuevos riesgos de seguridad. MIT Technology Review informó que los atacantes están explotando los agentes de IA para llevar a cabo ciberataques sofisticados. En septiembre de 2025, un grupo de hackers patrocinado por el estado utilizó el código Claude de Anthropic como un motor de intrusión automatizado para atacar a aproximadamente 30 organizaciones en los sectores de tecnología, finanzas, manufactura y gobierno. Según MIT Technology Review, los atacantes utilizaron la IA para automatizar del 80 al 90 por ciento de la operación, incluido el reconocimiento, el desarrollo de exploits, la recopilación de credenciales, el movimiento lateral y la exfiltración de datos, con humanos que solo intervenían en los puntos clave de decisión. Este incidente destaca el potencial de que los agentes de IA sean secuestrados y utilizados con fines maliciosos.
Además, la creciente tendencia de personalizar los chatbots y agentes de IA plantea preocupaciones sobre la privacidad. Personal Intelligence de Google, anunciado a principios de este mes, permite que el chatbot Gemini de la compañía se base en el historial de Gmail, fotos, búsquedas y YouTube de los usuarios para proporcionar interacciones más personalizadas y proactivas, informó MIT Technology Review. Movimientos similares de OpenAI, Anthropic y Meta para incorporar datos personales en sus productos de IA plantean preguntas sobre cómo se almacena, utiliza y protege esta información.
Gartner predice que más del 40 por ciento de las implementaciones de IA agentic fracasarán debido a la falta de integración de la perspicacia y la intuición humanas, informó VentureBeat. Esto destaca la importancia de establecer límites de gobernanza claros y garantizar que los analistas humanos sigan participando en el proceso de toma de decisiones. La integración de la supervisión humana es crucial para evitar que los agentes de IA cometan errores o sean explotados por los atacantes.
A medida que los agentes de IA se vuelven más frecuentes tanto en la seguridad empresarial como en la gestión de datos personales, es esencial abordar los riesgos asociados de manera proactiva. Las organizaciones deben implementar medidas de seguridad sólidas para proteger a los agentes de IA de ser comprometidos y establecer pautas claras para el uso de datos personales. No hacerlo podría conducir a importantes violaciones de seguridad y violaciones de la privacidad.
Discussion
Join the conversation
Be the first to comment