O número 10 de Downing Street expressou aprovação aos relatos que indicam que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados pelo Grok, seu modelo de inteligência artificial. A medida surge em meio a crescentes preocupações sobre o potencial de uso indevido de conteúdo gerado por IA para espalhar desinformação e propaganda.
Um porta-voz do Primeiro-Ministro afirmou que o governo saúda quaisquer esforços para mitigar os riscos associados à tecnologia deepfake. "Deixamos claro a necessidade de as empresas de tecnologia assumirem a responsabilidade pelo conteúdo hospedado em suas plataformas, principalmente quando se trata de material gerado por IA", disse o porta-voz. "Estamos encorajados pelos relatos de que o X está levando essa questão a sério."
Deepfakes são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. Isso normalmente é alcançado usando técnicas sofisticadas de aprendizado de máquina, especificamente algoritmos de aprendizado profundo, daí o nome "deepfake". O Grok, modelo de IA do X, é capaz de gerar texto e imagens, levantando preocupações de que possa ser usado para criar deepfakes com aparência realista em grande escala.
O impacto da tecnologia deepfake no setor é significativo. Especialistas alertam que deepfakes podem corroer a confiança na mídia, manipular a opinião pública e até mesmo ser usados para fins maliciosos, como fraude financeira ou sabotagem política. A proliferação de ferramentas de IA acessíveis tornou mais fácil para indivíduos com conhecimento técnico limitado criar deepfakes convincentes, ampliando o potencial de dano.
Embora os detalhes das medidas específicas do X para lidar com deepfakes gerados pelo Grok permaneçam limitados, os relatos sugerem que a empresa está explorando várias opções, incluindo a marca d'água de conteúdo gerado por IA, a implementação de políticas de moderação de conteúdo para remover deepfakes que violem seus termos de serviço e o desenvolvimento de ferramentas de detecção para identificar e sinalizar mídia sintética.
"O desafio não é apenas detectar deepfakes, mas também atribuí-los à sua fonte", disse a Dra. Anya Sharma, uma importante pesquisadora de IA da Universidade de Oxford. "Se o X puder rastrear efetivamente os deepfakes até o Grok, seria um avanço significativo na responsabilização."
O X ainda não divulgou uma declaração formal sobre seus planos, mas fontes familiarizadas com o assunto indicam que um anúncio é esperado nas próximas semanas. A empresa estaria trabalhando em estreita colaboração com reguladores governamentais e parceiros do setor para desenvolver uma abordagem abrangente para lidar com a ameaça deepfake. A eficácia das medidas do X será observada de perto por formuladores de políticas e pelo público em geral, à medida que o debate sobre a regulamentação da IA continua a se intensificar.
Discussion
Join the conversation
Be the first to comment