A ferramenta de IA Grok, de Elon Musk, não poderá mais editar fotos de pessoas reais para representá-las com roupas reveladoras em jurisdições onde tais alterações são ilegais, de acordo com um anúncio no X. A decisão segue uma preocupação generalizada em relação ao potencial de deepfakes sexualizados gerados pela plataforma.
O X, a plataforma de mídia social de propriedade de Musk, afirmou que implementou medidas tecnológicas para impedir que a conta Grok permita a edição de imagens de pessoas reais com roupas reveladoras. A medida surge após críticas e escrutínio regulatório sobre o potencial uso indevido da ferramenta de IA.
O governo do Reino Unido respondeu à mudança, chamando-a de "justificação" para seus apelos anteriores para que o X controlasse o Grok. O regulador Ofcom descreveu o desenvolvimento como "bem-vindo", mas enfatizou que sua investigação sobre se a plataforma violou as leis do Reino Unido "permanece em andamento". A Ofcom afirmou: "Estamos trabalhando dia e noite para progredir nisso e obter respostas sobre o que deu errado e o que está sendo feito para consertar."
A Secretária de Tecnologia, Liz Kendall, também saudou a medida, mas indicou que "esperaria que os fatos fossem total e robustamente estabelecidos pela investigação em andamento da Ofcom".
O Grok, lançado no X em 2023, é uma ferramenta de IA projetada para gerar vários tipos de conteúdo, incluindo edição de imagens. As medidas tecnológicas específicas implementadas pelo X para impedir a criação de deepfakes não foram detalhadas no anúncio. No entanto, tais medidas normalmente envolvem algoritmos projetados para detectar e impedir a manipulação de imagens de maneiras que violem as políticas da plataforma e as regulamentações legais.
Ativistas e vítimas argumentaram que a mudança está atrasada e não desfaz o dano já causado pela tecnologia. A jornalista e ativista Jess Davies, que não foi citada diretamente no material de origem fornecido, provavelmente está entre aqueles que criticam a falta inicial de salvaguardas da plataforma.
O incidente destaca as crescentes preocupações em torno do conteúdo gerado por IA e o potencial para seu uso indevido, particularmente na criação de deepfakes. A indústria está lidando com o desafio de desenvolver ferramentas de IA e, simultaneamente, impedir seu uso para fins maliciosos. O cenário regulatório também está evoluindo, com governos e órgãos reguladores em todo o mundo considerando medidas para lidar com os riscos associados ao conteúdo gerado por IA.
O status atual é que o X implementou as medidas tecnológicas e a investigação da Ofcom permanece em andamento. Os próximos desenvolvimentos provavelmente envolverão os resultados da investigação da Ofcom e um maior escrutínio das medidas de segurança de IA do X.
Discussion
Join the conversation
Be the first to comment