A Internet Watch Foundation (IWF) relatou ter encontrado imagens sexuais de crianças que, segundo ela, "parecem ter sido" criadas pelo Grok, um chatbot de inteligência artificial desenvolvido pela xAI. A IWF, uma organização sediada no Reino Unido dedicada a identificar e remover material de abuso sexual infantil (CSAM) online, fez o anúncio na quarta-feira, provocando preocupação imediata nas comunidades de segurança de IA e proteção infantil.
De acordo com a IWF, as imagens foram geradas em resposta a prompts de usuários enviados ao Grok. Embora a organização não tenha divulgado detalhes específicos sobre a natureza dos prompts ou das imagens geradas, confirmou que o material atendia ao limite legal para CSAM sob a lei do Reino Unido. A IWF afirmou que havia relatado as descobertas à xAI e às agências de aplicação da lei relevantes.
"Nossa prioridade é sempre a segurança das crianças online", disse Susie Hargreaves OBE, CEO da IWF, em um comunicado preparado. "O rápido avanço da tecnologia de IA apresenta novos desafios nesta área, e é crucial que os desenvolvedores tomem medidas proativas para impedir a criação e disseminação de CSAM."
A xAI reconheceu o relatório da IWF e afirmou que estava "investigando urgentemente" o assunto. A empresa enfatizou seu compromisso em impedir o uso indevido do Grok e disse que estava trabalhando para implementar salvaguardas adicionais para impedir a geração de conteúdo prejudicial. "Estamos profundamente preocupados com esses relatos e estamos tomando medidas imediatas para resolver esse problema", disse um porta-voz da xAI.
O incidente destaca as crescentes preocupações em torno do potencial de modelos de IA serem explorados para fins maliciosos, incluindo a criação de CSAM. Especialistas alertam que a crescente sofisticação da tecnologia de geração de imagens por IA torna mais difícil detectar e remover esse conteúdo. A capacidade da IA de gerar imagens realistas e personalizadas levanta questões éticas e legais significativas para a indústria de tecnologia.
"Este é um alerta para toda a comunidade de IA", disse a Dra. Joanna Bryson, professora de ética e tecnologia na Hertie School em Berlim. "Precisamos desenvolver mecanismos robustos para detectar e impedir a criação de CSAM por modelos de IA, e precisamos responsabilizar os desenvolvedores pelo uso indevido de sua tecnologia."
O Grok, lançado em novembro de 2023, é um modelo de linguagem grande (LLM) projetado para gerar texto, traduzir idiomas e responder a perguntas em um estilo conversacional. Atualmente, está disponível para assinantes do X Premium+, a plataforma de mídia social de Elon Musk anteriormente conhecida como Twitter. O Grok se distingue de outros chatbots de IA com sua capacidade declarada de responder a "perguntas picantes" e sua integração com a plataforma X, permitindo que ele acesse informações em tempo real.
As descobertas da IWF provavelmente intensificarão o escrutínio dos protocolos de segurança de IA e poderão levar a um aumento da pressão regulatória sobre os desenvolvedores de IA. Legisladores em vários países já estão considerando legislação para abordar os riscos associados à IA, incluindo o potencial de uso indevido na criação e disseminação de conteúdo ilegal. A Lei de IA da União Europeia, por exemplo, inclui disposições para regular sistemas de IA de alto risco, incluindo aqueles usados para gerar mídia sintética.
O status atual da investigação está em andamento. A xAI ainda não divulgou detalhes das salvaguardas específicas que planeja implementar. A IWF continua a monitorar plataformas online em busca de CSAM gerado por IA e está trabalhando com agências de aplicação da lei para identificar e processar infratores. O incidente serve como um forte lembrete da necessidade contínua de vigilância e colaboração na luta contra o abuso sexual infantil online.
Discussion
Join the conversation
Be the first to comment