O número 10 de Downing Street expressou aprovação aos relatos de que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados usando seu modelo de IA Grok. A medida surge em meio a crescentes preocupações sobre o potencial de uso indevido de conteúdo gerado por IA para espalhar desinformação e propaganda.
Um porta-voz do Primeiro-Ministro afirmou que o governo saúda quaisquer esforços para mitigar os riscos associados aos deepfakes, enfatizando a importância do desenvolvimento e implantação responsáveis da IA. "Deixamos claro a necessidade de as empresas de tecnologia tomarem medidas proativas para evitar o uso malicioso de suas plataformas e tecnologias", disse o porta-voz. "Estamos encorajados pelos relatos de que o X está levando este assunto a sério."
Deepfakes, uma junção de "deep learning" (aprendizado profundo) e "fake" (falso), são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. Isso é normalmente alcançado usando técnicas poderosas de IA, como redes neurais profundas, para analisar e replicar expressões faciais, padrões de fala e movimentos corporais. Os vídeos resultantes podem ser altamente realistas e difíceis de distinguir de filmagens genuínas, levantando preocupações sobre seu uso potencial em campanhas de desinformação, manipulação política e assédio online.
Grok, o modelo de IA do X, é um modelo de linguagem grande (LLM) semelhante à série GPT da OpenAI e ao Gemini do Google. Os LLMs são treinados em conjuntos de dados massivos de texto e código, permitindo-lhes gerar texto com qualidade humana, traduzir idiomas e responder a perguntas de forma abrangente. Embora os LLMs tenham muitas aplicações benéficas, eles também podem ser usados para criar deepfakes convincentes, exacerbando os riscos associados a essa tecnologia.
As medidas específicas que o X estaria tomando para lidar com os deepfakes gerados pelo Grok não foram totalmente divulgadas. No entanto, especialistas do setor especulam que elas podem incluir a implementação de políticas de moderação de conteúdo para detectar e remover deepfakes, o desenvolvimento de ferramentas técnicas para identificar conteúdo gerado por IA e a educação dos usuários sobre os riscos dos deepfakes.
"O desafio não é apenas detectar deepfakes, mas também atribuí-los à sua fonte", disse a Dra. Emily Carter, uma importante pesquisadora de IA da Universidade de Oxford. "Se o X puder identificar deepfakes gerados pelo Grok e rastreá-los até os usuários que os criaram, esse seria um passo significativo."
A ascensão dos deepfakes gerou apelos por maior regulamentação das tecnologias de IA. Governos em todo o mundo estão lidando com a forma de equilibrar os benefícios da IA com a necessidade de proteger contra seus potenciais danos. A União Europeia está atualmente trabalhando na Lei de IA, uma legislação abrangente que estabeleceria regras para o desenvolvimento e implantação de sistemas de IA, incluindo aqueles usados para criar deepfakes.
O X ainda não divulgou uma declaração oficial sobre seus planos para lidar com os deepfakes do Grok. No entanto, espera-se que a empresa forneça mais detalhes nas próximas semanas. A eficácia dos esforços do X será observada de perto por formuladores de políticas, pesquisadores e pelo público em geral, à medida que a luta contra os deepfakes continua sendo um desafio crítico na era da IA.
Discussion
Join the conversation
Be the first to comment