O número 10 de Downing Street expressou aprovação aos relatos de que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados usando seu modelo de IA Grok. O gabinete do Primeiro-Ministro reconheceu o potencial de uso indevido de conteúdo gerado por IA e enfatizou a importância de as plataformas assumirem a responsabilidade de mitigar os riscos.
Deepfakes, uma junção de "deep learning" (aprendizado profundo) e "fake" (falso), são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. Essa tecnologia aproveita a inteligência artificial sofisticada, especificamente algoritmos de aprendizado profundo, para criar conteúdo altamente realista, porém fabricado. A preocupação é que esses deepfakes possam ser usados para espalhar desinformação, manipular a opinião pública e prejudicar reputações.
Grok, o modelo de IA do X, é um modelo de linguagem grande (LLM) semelhante aos modelos GPT da OpenAI e ao Gemini do Google. Os LLMs são treinados em conjuntos de dados massivos de texto e código, permitindo que eles gerem texto com qualidade humana, traduzam idiomas, escrevam diferentes tipos de conteúdo criativo e respondam às suas perguntas de forma informativa. No entanto, as mesmas capacidades que tornam os LLMs úteis também podem ser exploradas para criar conteúdo malicioso, incluindo deepfakes.
Embora os detalhes das medidas específicas do X para combater deepfakes gerados pelo Grok permaneçam limitados, analistas do setor especulam que a plataforma pode estar implementando técnicas como a marca d'água de conteúdo gerado por IA, o desenvolvimento de algoritmos para detectar deepfakes e o estabelecimento de políticas claras contra a criação e disseminação de mídia sintética enganosa. A marca d'água envolve a incorporação de um marcador sutil, muitas vezes invisível, no conteúdo gerado que o identifica como gerado por IA. Os algoritmos de detecção analisam a mídia em busca de sinais reveladores de manipulação, como inconsistências nas características faciais ou movimentos não naturais.
A proliferação de deepfakes representa um desafio significativo para o ecossistema de informação. Especialistas alertam que a crescente sofisticação dessas tecnologias torna mais difícil distinguir entre conteúdo real e falso, potencialmente corroendo a confiança na mídia e nas instituições. O governo do Reino Unido tem explorado ativamente estruturas regulatórias para IA, com foco em garantir o desenvolvimento e a implantação responsáveis da tecnologia.
A medida do X para lidar com deepfakes está alinhada com uma tendência mais ampla no setor de tecnologia, onde as empresas estão lidando com as implicações éticas e sociais da IA. Outras grandes plataformas, incluindo Meta e Google, também anunciaram iniciativas para combater a disseminação de deepfakes e outras formas de desinformação gerada por IA.
O governo estará monitorando de perto o progresso do X no tratamento de deepfakes do Grok e espera que a plataforma tome medidas proativas para proteger os usuários dos potenciais danos dessa tecnologia, de acordo com um comunicado divulgado por um porta-voz de Downing Street. Mais atualizações sobre os esforços do X são esperadas nas próximas semanas.
Discussion
Join the conversation
Be the first to comment