A ferramenta de IA Grok, de Elon Musk, não poderá mais editar fotos de pessoas reais para mostrá-las com roupas reveladoras em jurisdições onde tais alterações são ilegais. O anúncio, feito no X, a plataforma de mídia social pertencente a Musk, segue uma preocupação generalizada sobre o potencial de deepfakes sexualizados gerados por IA.
O X afirmou que "implementou medidas tecnológicas para impedir que a conta Grok permita a edição de imagens de pessoas reais com roupas reveladoras". A medida surge após críticas e escrutínio regulatório sobre o potencial uso indevido da ferramenta de IA.
O governo do Reino Unido respondeu à mudança, chamando-a de "justificação" de seu pedido para que o X controlasse o Grok. A Ofcom, a reguladora de comunicações do Reino Unido, descreveu o desenvolvimento como "bem-vindo", mas enfatizou que sua investigação sobre se o X violou as leis do Reino Unido "permanece em andamento". A Ofcom declarou: "Estamos trabalhando dia e noite para progredir nisso e obter respostas sobre o que deu errado e o que está sendo feito para corrigir isso."
A Secretária de Tecnologia, Liz Kendall, também reconheceu a mudança, mas afirmou que "esperaria que os fatos fossem total e robustamente estabelecidos pela investigação em andamento da Ofcom".
O Grok, lançado em 2023, é uma ferramenta de IA integrada à plataforma X. Suas capacidades incluem edição de imagens, levantando preocupações sobre o potencial de uso indevido, particularmente na criação de deepfakes não consensuais. As medidas tecnológicas implementadas visam impedir que a IA gere imagens que retratem indivíduos reais em contextos sexualmente explícitos ou reveladores sem o seu consentimento.
Ativistas e vítimas argumentaram que a mudança está atrasada e não desfaz os danos já causados. Jess Davies, jornalista e ativista, tem se manifestado sobre a necessidade de salvaguardas mais fortes contra o abuso gerado por IA.
As medidas técnicas específicas implementadas pelo X para impedir que o Grok crie tais imagens não foram detalhadas no anúncio. No entanto, tais medidas normalmente envolvem uma combinação de filtragem de conteúdo, algoritmos de reconhecimento de imagem e restrições aos tipos de prompts que a IA pode processar. Esses filtros são projetados para detectar e bloquear solicitações que possam levar à criação de conteúdo inadequado ou prejudicial.
O incidente destaca os crescentes desafios e considerações éticas em torno de ferramentas alimentadas por IA, particularmente no campo da manipulação de imagens e da tecnologia deepfake. À medida que a tecnologia de IA avança, desenvolvedores e plataformas estão enfrentando uma pressão crescente para implementar salvaguardas que impeçam o uso indevido e protejam os indivíduos de danos. A investigação em andamento da Ofcom ressalta o potencial de intervenção regulatória e a necessidade de as plataformas cumprirem as leis e regulamentos locais em relação ao conteúdo gerado por IA.
Discussion
Join the conversation
Be the first to comment