O número 10 de Downing Street expressou aprovação aos relatos que indicam que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados usando o Grok, seu modelo de inteligência artificial. A medida surge em meio a crescentes preocupações sobre o potencial uso indevido de conteúdo gerado por IA para espalhar desinformação e manipular a opinião pública.
Um porta-voz do Primeiro-Ministro afirmou que o governo saúda quaisquer esforços das empresas de tecnologia para mitigar os riscos associados à IA, particularmente no contexto dos deepfakes. "Temos sido claros sobre a necessidade de desenvolvimento e implantação responsáveis da IA", disse o porta-voz. "É encorajador ver plataformas como o X tomando medidas proativas para lidar com o potencial de uso indevido."
Deepfakes, que são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa, são criados usando técnicas sofisticadas de IA, muitas vezes envolvendo redes generativas adversárias (GANs). As GANs consistem em duas redes neurais, um gerador e um discriminador, que trabalham em conjunto. O gerador cria conteúdo sintético, enquanto o discriminador tenta distinguir entre conteúdo real e falso. Através deste processo iterativo, o gerador aprende a produzir deepfakes cada vez mais realistas.
O Grok do X, um modelo de IA projetado para processamento e geração de linguagem natural, poderia potencialmente ser usado para criar deepfakes realistas baseados em texto ou para gerar scripts para deepfakes de vídeo. As medidas específicas que o X estaria tomando para lidar com deepfakes relacionados ao Grok não foram totalmente divulgadas, mas analistas da indústria especulam que podem incluir a implementação de políticas de moderação de conteúdo, o desenvolvimento de ferramentas de detecção e a marcação de conteúdo gerado por IA.
A ascensão dos deepfakes representa um desafio significativo para o ecossistema de informação. Especialistas alertam que essas mídias manipuladas podem ser usadas para prejudicar reputações, semear discórdia e até influenciar eleições. A crescente acessibilidade e sofisticação da tecnologia tornam difícil distinguir entre conteúdo genuíno e fabricado, erodindo a confiança na mídia e nas instituições.
Outras plataformas de mídia social e empresas de tecnologia também estão lidando com o problema dos deepfakes. Muitas estão investindo em ferramentas de detecção alimentadas por IA que podem identificar mídias manipuladas com base em inconsistências ou artefatos sutis. Algumas também estão explorando o uso da tecnologia blockchain para verificar a autenticidade do conteúdo.
O governo do Reino Unido tem considerado ativamente estruturas regulatórias para IA, incluindo medidas para lidar com os riscos associados aos deepfakes. A Lei de Segurança Online, que entrou em vigor recentemente, inclui disposições para combater conteúdo online prejudicial, incluindo mídia manipulada.
O status atual dos esforços do X para lidar com os deepfakes do Grok permanece incerto. Mais detalhes devem ser divulgados pela empresa nas próximas semanas. O porta-voz do governo reiterou a importância da colaboração contínua entre governo, indústria e sociedade civil para enfrentar os desafios representados pela IA e garantir seu desenvolvimento e uso responsáveis.
Discussion
Join the conversation
Be the first to comment