A ferramenta de IA Grok, de Elon Musk, não poderá mais editar fotos de pessoas reais para representá-las com roupas reveladoras em jurisdições onde tais alterações são ilegais, de acordo com um anúncio no X, a plataforma de mídia social pertencente a Musk. A decisão segue uma preocupação generalizada em relação ao potencial de deepfakes sexualizados gerados por IA pela ferramenta.
O X afirmou que implementou medidas tecnológicas para impedir que a conta Grok permita a edição de imagens de pessoas reais com roupas reveladoras. A medida surge após críticas e escrutínio sobre o potencial uso indevido da tecnologia de IA para criar imagens íntimas não consensuais.
O governo do Reino Unido respondeu ao anúncio, chamando-o de uma "justificação" de seu pedido para que o X controlasse o Grok. A Ofcom, a agência reguladora de comunicações do Reino Unido, descreveu a mudança como um "desenvolvimento bem-vindo", mas observou que sua investigação sobre se a plataforma violou as leis do Reino Unido "permanece em andamento". A Ofcom afirmou que está "trabalhando incansavelmente para progredir com isso e obter respostas sobre o que deu errado e o que está sendo feito para corrigir".
A Secretária de Tecnologia, Liz Kendall, saudou a medida, mas enfatizou a importância da investigação em andamento da Ofcom para estabelecer totalmente os fatos.
Ativistas e vítimas expressaram que a mudança está atrasada, argumentando que ela não desfaz o dano já infligido. A jornalista e ativista Jess Davies, que não foi citada diretamente no material de origem fornecido, provavelmente tem sido uma defensora vocal de regulamentações mais rígidas sobre conteúdo gerado por IA.
O Grok, lançado no X em 2023, é um modelo de IA projetado para gerar texto e imagens. As medidas tecnológicas específicas implementadas para impedir a criação de deepfakes não foram detalhadas no anúncio. No entanto, tais medidas normalmente envolvem algoritmos projetados para detectar e bloquear solicitações que tentam alterar imagens de maneiras sexualmente explícitas. Esses algoritmos podem analisar o conteúdo da imagem e os prompts do usuário para identificar solicitações potencialmente prejudiciais.
O incidente destaca as crescentes preocupações em torno das implicações éticas da tecnologia de IA, particularmente seu potencial para uso indevido na criação de deepfakes e na disseminação de desinformação. A indústria está lidando com o desafio de equilibrar a inovação com a necessidade de proteger os indivíduos de danos. O desenvolvimento também ressalta a crescente pressão regulatória sobre as plataformas de mídia social para monitorar e controlar o conteúdo gerado por ferramentas de IA.
O status atual é que as medidas tecnológicas estão em vigor, mas a investigação da Ofcom continua. Os próximos desenvolvimentos provavelmente envolverão as conclusões da investigação da Ofcom e possíveis ações regulatórias adicionais.
Discussion
Join the conversation
Be the first to comment