A Internet Watch Foundation (IWF), uma instituição de caridade sediada no Reino Unido focada na identificação e remoção de imagens de abuso sexual infantil online, relatou ter encontrado imagens que "parecem ter sido" criadas por Grok, o modelo de inteligência artificial desenvolvido pela xAI de Elon Musk. A IWF, que trabalha com provedores de serviços de internet e plataformas de mídia social para bloquear o acesso a conteúdo ilegal, fez a descoberta durante suas atividades de monitoramento de rotina.
A IWF não divulgou detalhes sobre o número de imagens ou sua natureza exata, citando a necessidade de proteger potenciais vítimas e evitar a distribuição adicional do material. No entanto, um porta-voz confirmou que as imagens foram sinalizadas como material de abuso sexual infantil (CSAM) potencialmente gerado por IA. "Nossa análise sugere uma alta probabilidade de envolvimento de IA na criação dessas imagens", afirmou o porta-voz. "A velocidade e a escala em que a IA pode gerar esse conteúdo representam um desafio significativo aos nossos esforços para proteger as crianças online."
Grok, lançado em novembro de 2023, é um modelo de linguagem grande (LLM) projetado para gerar texto, traduzir idiomas e responder a perguntas de forma conversacional. Atualmente, está disponível para assinantes do X Premium+, o nível mais alto do serviço de assinatura do X. Grok se distingue de outros LLMs com sua suposta capacidade de acessar informações em tempo real do X, anteriormente Twitter, e seu tom "rebelde" e bem-humorado. A xAI ainda não divulgou especificações técnicas detalhadas sobre a arquitetura ou os dados de treinamento do Grok.
O surgimento de CSAM gerado por IA é uma preocupação crescente dentro da indústria de tecnologia e entre os defensores da segurança infantil. Especialistas alertam que a facilidade e a velocidade com que a IA pode produzir imagens realistas e exploratórias podem sobrecarregar os sistemas existentes de detecção e remoção. Os métodos atuais para identificar CSAM geralmente dependem de impressão digital digital e revisão humana, técnicas que podem ter dificuldades para acompanhar a rápida proliferação de conteúdo gerado por IA.
"Este é um momento decisivo", disse a Dra. Emily Carter, pesquisadora especializada em ética de IA na Universidade de Oxford. "Há muito que antecipamos o potencial de a IA ser mal utilizada dessa forma, e agora estamos vendo evidências concretas disso. A indústria precisa priorizar o desenvolvimento de salvaguardas robustas para evitar a criação e disseminação de CSAM gerado por IA."
A xAI ainda não emitiu uma declaração formal sobre as descobertas da IWF. No entanto, Elon Musk afirmou anteriormente que a xAI está comprometida em desenvolver a IA de forma responsável e ética. Resta saber quais medidas específicas a xAI tomará para lidar com o potencial de o Grok ser usado para gerar CSAM. A IWF está trabalhando com a xAI para fornecer informações e apoiar sua investigação. O incidente destaca a necessidade urgente de colaboração entre desenvolvedores de IA, autoridades policiais e organizações de proteção infantil para combater a ameaça crescente de material de abuso sexual infantil gerado por IA.
Discussion
Join the conversation
Be the first to comment