Funcionários do governo estão exigindo que a plataforma de mídia social X, de Elon Musk, aborde a proliferação do que chamam de deepfakes "terríveis" gerados pelo Grok, o chatbot de inteligência artificial da plataforma. A exigência surge após um aumento no conteúdo de áudio e vídeo realista, mas fabricado, circulando no X, levantando preocupações sobre potencial desinformação e danos à reputação.
As preocupações do governo se concentram na capacidade do Grok de gerar deepfakes altamente convincentes, que são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. Essa tecnologia, embora tenha aplicações potenciais em entretenimento e educação, pode ser mal utilizada para criar narrativas falsas, manipular a opinião pública e difamar indivíduos. "A velocidade e a sofisticação com que o Grok pode produzir esses deepfakes são profundamente preocupantes", disse um porta-voz do Departamento de Regulamentação de Tecnologia em um comunicado divulgado. "Precisamos de garantias de que o X está tomando medidas proativas para mitigar os riscos."
O X introduziu o Grok para seus assinantes premium no final de 2023 como um recurso projetado para aprimorar o envolvimento do usuário e fornecer ferramentas criativas. O Grok é construído em um modelo de linguagem grande (LLM), um tipo de IA que é treinado em conjuntos de dados massivos de texto e código, permitindo que ele gere texto semelhante ao humano, traduza idiomas e crie diferentes tipos de conteúdo criativo. Embora o X tenha implementado salvaguardas para evitar a geração de conteúdo prejudicial, os críticos argumentam que essas medidas são insuficientes para combater a crescente sofisticação da tecnologia deepfake.
O aumento de deepfakes gerados por IA representa um desafio significativo para a indústria de tecnologia e para os reguladores. Especialistas alertam que a tecnologia está se tornando cada vez mais acessível, tornando mais fácil para agentes maliciosos criar e disseminar desinformação convincente. "O desafio não é apenas detectar deepfakes, mas também atribuí-los à sua fonte e responsabilizar os responsáveis", disse a Dra. Anya Sharma, uma importante pesquisadora de IA do Instituto de Ética Digital.
O X respondeu às exigências do governo afirmando que está comprometido em combater o uso indevido de IA em sua plataforma. A empresa descreveu suas medidas atuais, que incluem políticas de moderação de conteúdo, ferramentas de detecção baseadas em IA e mecanismos de denúncia do usuário. "Estamos constantemente trabalhando para melhorar nossa capacidade de identificar e remover deepfakes e outras formas de mídia manipulada", disse um comunicado divulgado pelo chefe de Confiança e Segurança do X. "Também estamos explorando novas tecnologias, como marca d'água e rastreamento de proveniência, para ajudar os usuários a distinguir entre conteúdo autêntico e sintético."
O governo está atualmente revisando as medidas propostas pelo X e considerando outras ações regulatórias. Isso pode incluir a imposição de políticas de moderação de conteúdo mais rígidas, exigindo que o conteúdo gerado por IA seja claramente rotulado e impondo penalidades para plataformas que não abordarem adequadamente a disseminação de deepfakes. O resultado desta revisão pode ter implicações significativas para o futuro da regulamentação da IA e a responsabilidade das plataformas de mídia social no combate à desinformação.
Discussion
Join the conversation
Be the first to comment