O número 10 de Downing Street expressou aprovação aos relatos que indicam que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados pelo Grok, seu modelo de inteligência artificial. A medida surge em meio a crescentes preocupações sobre o potencial de uso indevido de conteúdo gerado por IA para espalhar desinformação e propaganda.
Um porta-voz do Primeiro-Ministro afirmou que o governo saúda quaisquer esforços para mitigar os riscos associados às tecnologias avançadas de IA. "Temos sido claros sobre a necessidade de inovação responsável em IA e estamos encorajados a ver empresas tomando medidas proativas para lidar com possíveis danos", disse o porta-voz.
Deepfakes, uma junção de "deep learning" (aprendizado profundo) e "fake" (falso), são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. O Grok, modelo de IA do X, é capaz de gerar imagens e vídeos realistas, levantando preocupações de que possa ser usado para criar representações convincentes, mas falsas, de indivíduos ou eventos. A tecnologia se baseia em redes generativas adversárias (GANs), um tipo de arquitetura de aprendizado de máquina onde duas redes neurais competem entre si – uma gerando conteúdo falso e a outra tentando distingui-lo do conteúdo real – até que o conteúdo gerado se torne altamente realista.
O X ainda não divulgou detalhes específicos sobre as medidas que está implementando para combater os deepfakes gerados pelo Grok. No entanto, analistas do setor especulam que a empresa pode estar explorando técnicas como a marca d'água em conteúdo gerado por IA, o desenvolvimento de algoritmos para detectar deepfakes e a implementação de políticas de moderação de conteúdo mais rigorosas. A marca d'água envolve a incorporação de um marcador sutil, muitas vezes invisível, no conteúdo gerado que o identifica como gerado por IA. Os algoritmos de detecção analisam imagens e vídeos em busca de sinais reveladores de manipulação, como inconsistências na iluminação, movimentos faciais não naturais ou artefatos introduzidos pelo processo GAN.
A ascensão dos deepfakes tem provocado preocupação generalizada em vários setores, incluindo política, mídia e entretenimento. Especialistas alertam que os deepfakes podem ser usados para manipular a opinião pública, prejudicar reputações e até incitar a violência. O potencial de uso indevido é particularmente agudo no contexto das eleições, onde os deepfakes podem ser usados para espalhar informações falsas sobre candidatos ou influenciar a participação eleitoral.
O governo do Reino Unido tem considerado ativamente estruturas regulatórias para IA, incluindo medidas para lidar com os riscos associados aos deepfakes. A Lei de Segurança Online, que entrou em vigor recentemente, inclui disposições para combater conteúdo online prejudicial, incluindo deepfakes. O governo também está trabalhando com parceiros internacionais para desenvolver padrões globais para a governança da IA.
Resta saber quais ações específicas o X tomará para lidar com os deepfakes do Grok e quão eficazes serão essas medidas. A empresa deverá divulgar mais detalhes nas próximas semanas. A eficácia de qualquer solução provavelmente dependerá da sofisticação dos métodos de detecção e da velocidade com que o X pode responder a ameaças emergentes. O desenvolvimento e a implantação contínuos de tecnologias de IA exigem vigilância e adaptação constantes para se manter à frente do possível uso indevido.
Discussion
Join the conversation
Be the first to comment