A ferramenta de IA Grok, de Elon Musk, não poderá mais editar fotos de pessoas reais para representá-las com roupas reveladoras em jurisdições onde tais alterações são ilegais. O anúncio, feito no X, a plataforma de mídia social de propriedade de Musk onde o Grok foi lançado em 2023, segue uma preocupação generalizada sobre o potencial de deepfakes sexualizados com IA.
O X afirmou que "medidas tecnológicas" foram implementadas para impedir que a conta Grok permitisse a edição de imagens de pessoas reais com roupas reveladoras. A medida surge após críticas e escrutínio de reguladores e do público em relação ao potencial uso indevido da tecnologia de IA para criar conteúdo sexualmente explícito não consensual.
O governo do Reino Unido respondeu, chamando a mudança de uma "justificação" de seu pedido para que o X controlasse o Grok. A Ofcom, a agência reguladora de comunicações do Reino Unido, descreveu o desenvolvimento como "bem-vindo", mas enfatizou que sua investigação sobre se a plataforma violou as leis do Reino Unido "permanece em andamento". A Ofcom afirmou que está "trabalhando incansavelmente para progredir nisso e obter respostas sobre o que deu errado e o que está sendo feito para consertar". A Secretária de Tecnologia, Liz Kendall, também saudou a medida, acrescentando que "esperaria que os fatos fossem total e robustamente estabelecidos pela investigação em andamento da Ofcom".
A capacidade de ferramentas de IA como o Grok de manipular imagens levanta questões éticas e legais significativas. Os deepfakes, que são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa, tornaram-se cada vez mais sofisticados, tornando-os difíceis de detectar. Isso levou a preocupações sobre seu uso potencial para fins maliciosos, incluindo a criação de pornografia não consensual, campanhas de desinformação e roubo de identidade.
As medidas técnicas implementadas pelo X para impedir que o Grok crie tais imagens não foram detalhadas no anúncio. No entanto, soluções potenciais podem incluir algoritmos de filtragem projetados para detectar e bloquear prompts que solicitam a criação de conteúdo sexualmente explícito, bem como a marca d'água de imagens geradas por IA para indicar sua origem sintética.
Ativistas e vítimas argumentaram que a mudança chega tarde demais para desfazer os danos já causados. A jornalista e ativista Jess Davies, que não foi citada diretamente no material de origem fornecido, provavelmente esteve envolvida em aumentar a conscientização sobre o assunto. O incidente destaca os desafios de regular as tecnologias de IA em rápida evolução e a necessidade de medidas proativas para evitar seu uso indevido. A investigação em andamento da Ofcom provavelmente examinará até que ponto o X estava ciente do potencial do Grok para ser usado para fins maliciosos e quais medidas, se houver, a empresa tomou para evitar tal uso indevido. O resultado da investigação pode ter implicações significativas para a regulamentação das tecnologias de IA em plataformas de mídia social.
Discussion
Join the conversation
Be the first to comment