Segurança da IA Atrás da Adoção, Deixando as Cadeias de Suprimentos Vulneráveis
As empresas enfrentam uma ameaça crescente da inteligência artificial, à medida que a adoção de agentes de IA supera as medidas de segurança, criando vulnerabilidades significativas nas cadeias de suprimentos de IA. De acordo com uma pesquisa do Relatório do Índice de 2025 da Universidade de Stanford, embora quatro em cada dez aplicações empresariais apresentem agentes de IA específicos para tarefas este ano, apenas 6% das organizações têm uma estratégia avançada de segurança de IA em vigor.
A rápida integração da IA, particularmente os grandes modelos de linguagem (LLMs), criou uma "lacuna de visibilidade" em relação a como, onde, quando e através de quais fluxos de trabalho e ferramentas esses modelos estão sendo usados ou modificados, relatou a VentureBeat. Essa falta de transparência, juntamente com a ausência de Model Software Bill of Materials (SBOMs), deixa as organizações expostas a ameaças imprevisíveis de IA.
A Palo Alto Networks prevê que 2026 trará os primeiros grandes processos judiciais responsabilizando pessoalmente os executivos por ações de IA desonestas, destacando a urgência de uma melhor governança de IA. A natureza acelerada e imprevisível das ameaças de IA significa que as abordagens tradicionais de governança, como orçamentos ou número de funcionários aumentados, são insuficientes.
Um CISO descreveu os model SBOMs como "o Velho Oeste da governança hoje", sublinhando a atual falta de padronização e supervisão nesta área crítica. Os especialistas enfatizam a necessidade de as organizações priorizarem a visibilidade da cadeia de suprimentos de IA para mitigar os riscos potenciais e evitar repercussões legais.
Discussion
Join the conversation
Be the first to comment