Brecha de seguridad en la IA amenaza a las empresas; se avecinan repercusiones legales
Una importante brecha de seguridad en la adopción de la inteligencia artificial (IA) está dejando a las empresas vulnerables a filtraciones, lo que podría acarrear responsabilidades legales para los ejecutivos, según informes recientes. Se espera que cuatro de cada diez aplicaciones empresariales cuenten con agentes de IA específicos para tareas este año, pero existe una preocupante falta de estrategias avanzadas de seguridad de la IA, lo que genera alarmas sobre la gobernanza y la seguridad de las cadenas de suministro de la IA.
Una investigación del Informe del Índice 2025 de la Universidad de Stanford reveló que solo el 6% de las organizaciones tienen una estrategia avanzada de seguridad de la IA implementada. Esta deficiencia, junto con la creciente imprevisibilidad de las amenazas de la IA, ha creado una vulnerabilidad crítica. Palo Alto Networks predice que 2026 traerá las primeras demandas importantes que responsabilizarán personalmente a los ejecutivos por las acciones descontroladas de la IA.
El núcleo del problema radica en una "brecha de visibilidad" con respecto a cómo, dónde, cuándo y a través de qué flujos de trabajo y herramientas se están utilizando o modificando los Modelos de Lenguaje Grande (LLM), según VentureBeat. Un CISO describió las Listas de Materiales de Software de Modelos (SBOM) como "el Salvaje Oeste de la gobernanza actual", destacando la ausencia de prácticas estandarizadas para el seguimiento y la gestión de los modelos de IA.
La falta de visibilidad en el uso y la modificación de los LLM, combinada con la ausencia de SBOM de Modelos, crea una vulnerabilidad crítica. Los expertos enfatizan la urgente necesidad de mejorar la visibilidad y la gobernanza de la cadena de suministro de la IA para mitigar los riesgos potenciales. El panorama actual de la gobernanza no está respondiendo a las soluciones tradicionales, como el aumento de los presupuestos o la contratación de más personal.
Las empresas están lidiando con la forma de contener la naturaleza acelerada e impredecible de las amenazas de la IA. La ausencia de medidas de seguridad sólidas y de marcos de gobernanza claros deja a las organizaciones expuestas a posibles filtraciones y ramificaciones legales. El llamado a la acción es claro: las organizaciones deben priorizar la seguridad de la IA e implementar estrategias integrales para abordar el creciente panorama de amenazas.
Discussion
Join the conversation
Be the first to comment