O número 10 de Downing Street reconheceu relatos de que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados usando o Grok, seu modelo de inteligência artificial. A medida surge em meio a crescentes preocupações sobre o potencial de uso indevido de conteúdo gerado por IA na disseminação de desinformação e na influência da opinião pública.
Um porta-voz do gabinete do Primeiro-Ministro afirmou que o governo saúda quaisquer esforços das plataformas de mídia social para mitigar os riscos associados aos deepfakes. "Deixamos claro a necessidade de as empresas de tecnologia assumirem a responsabilidade pelo conteúdo hospedado em suas plataformas, principalmente quando se trata de material gerado por IA que pode ser usado para enganar ou induzir em erro", disse o porta-voz.
Deepfakes são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. Isso é normalmente alcançado usando técnicas sofisticadas de aprendizado de máquina, especificamente algoritmos de aprendizado profundo, daí o nome. Grok, o modelo de IA do X, é um modelo de linguagem grande (LLM) semelhante à série GPT da OpenAI ou ao Gemini do Google. Os LLMs são treinados em vastas quantidades de dados de texto, permitindo-lhes gerar texto semelhante ao humano, traduzir idiomas e criar vários tipos de conteúdo criativo, incluindo o texto subjacente para aplicações de deepfake.
As medidas específicas que o X estaria implementando para combater os deepfakes gerados pelo Grok não foram totalmente divulgadas. No entanto, analistas do setor especulam que elas podem incluir algoritmos aprimorados de detecção de conteúdo, processos de verificação de usuário mais rigorosos e políticas de rotulagem mais claras para conteúdo gerado por IA. Os algoritmos de detecção de conteúdo analisam a mídia em busca de sinais reveladores de manipulação, como inconsistências na iluminação, movimentos faciais não naturais ou artefatos introduzidos durante o processo de criação do deepfake.
A ascensão de ferramentas de IA acessíveis como o Grok diminuiu a barreira de entrada para a criação de deepfakes, tornando mais fácil para agentes maliciosos produzirem e disseminarem conteúdo convincente, mas fabricado. Isso representa um desafio significativo para o ecossistema de informação, potencialmente minando a confiança em fontes e instituições de notícias legítimas.
O governo do Reino Unido tem considerado ativamente estruturas regulatórias para IA, incluindo medidas para lidar com os riscos associados aos deepfakes. A Lei de Segurança Online, que entrou em vigor recentemente, impõe um dever de cuidado às plataformas de mídia social para proteger os usuários de conteúdo ilegal e prejudicial, o que poderia ser interpretado como incluindo certos tipos de deepfakes.
O X ainda não divulgou uma declaração oficial detalhando seus planos. Espera-se que a empresa forneça mais informações sobre sua abordagem para lidar com deepfakes relacionados ao Grok nas próximas semanas. A eficácia das medidas do X será observada de perto por formuladores de políticas, reguladores e pelo público, à medida que o debate sobre o desenvolvimento e a implantação responsáveis da IA continua.
Discussion
Join the conversation
Be the first to comment