O Grok, ferramenta de IA de Elon Musk, não poderá mais editar fotos de pessoas reais para representá-las com roupas reveladoras em jurisdições onde tais alterações são ilegais, de acordo com um anúncio no X. A decisão segue uma preocupação generalizada sobre o potencial de deepfakes sexualizados gerados pela plataforma.
O X, a plataforma de mídia social de propriedade de Musk, afirmou que "implementou medidas tecnológicas para impedir que a conta Grok permita a edição de imagens de pessoas reais com roupas reveladoras". A medida surge após críticas e escrutínio regulatório sobre o potencial uso indevido da ferramenta de IA.
O governo do Reino Unido respondeu à mudança, chamando-a de "justificação" de seus apelos para que o X controle o Grok. O regulador Ofcom descreveu o desenvolvimento como "bem-vindo", mas enfatizou que sua investigação sobre se a plataforma violou as leis do Reino Unido "permanece em andamento". O Ofcom afirmou: "Estamos trabalhando dia e noite para progredir nisso e obter respostas sobre o que deu errado e o que está sendo feito para corrigir isso."
A Secretária de Tecnologia, Liz Kendall, também saudou a mudança, mas indicou que "esperaria que os fatos fossem total e robustamente estabelecidos pela investigação em andamento do Ofcom".
O Grok, lançado no X em 2023, é uma ferramenta de IA projetada para gerar vários tipos de conteúdo, incluindo edição de imagem. As medidas tecnológicas específicas implementadas pelo X para impedir a criação de deepfakes envolvendo roupas reveladoras não foram divulgadas. No entanto, tais medidas geralmente envolvem uma combinação de algoritmos de reconhecimento de imagem, filtragem de conteúdo e mecanismos de denúncia do usuário. Algoritmos de reconhecimento de imagem podem ser treinados para identificar e sinalizar imagens que retratam nudez ou conteúdo sugestivo. Filtros de conteúdo podem então ser usados para bloquear a geração ou compartilhamento de tais imagens. Mecanismos de denúncia do usuário permitem que os usuários sinalizem conteúdo potencialmente inadequado para revisão pela equipe de moderação do X.
O incidente destaca as crescentes preocupações em torno do potencial da IA para ser usada para criar deepfakes e outras formas de conteúdo manipulado. Essas preocupações levaram a um maior escrutínio regulatório das plataformas de IA e a apelos por maior transparência e responsabilidade no desenvolvimento e implantação de tecnologias de IA.
Ativistas e vítimas expressaram preocupação de que a mudança tenha chegado tarde demais para desfazer os danos já causados pela tecnologia. A jornalista e ativista Jess Davies, que não foi citada diretamente no anúncio do X, tem se manifestado sobre o potencial de deepfakes de IA para serem usados para assediar e intimidar indivíduos.
Discussion
Join the conversation
Be the first to comment