O número 10 de Downing Street reconheceu relatos de que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados usando seu modelo de IA Grok. A recepção positiva do governo sinaliza uma pressão crescente sobre as plataformas de mídia social para combater a disseminação de desinformação gerada por IA.
A medida do X surge em meio a crescentes preocupações sobre o potencial do Grok, um modelo de IA projetado para IA conversacional e geração de texto, para ser mal utilizado na criação de conteúdo de áudio e vídeo convincente, mas fabricado. Deepfakes, que alavancam técnicas sofisticadas de aprendizado de máquina, podem ser usados para se passar por indivíduos, espalhar narrativas falsas e manipular a opinião pública.
"Apoiamos quaisquer esforços para mitigar os riscos associados ao conteúdo gerado por IA", afirmou um porta-voz de Downing Street. "É crucial que as plataformas assumam a responsabilidade pela tecnologia que implementam e trabalhem ativamente para evitar seu uso indevido."
O Grok, desenvolvido pela xAI, empresa de inteligência artificial de Elon Musk, é um modelo de linguagem grande (LLM) treinado em um conjunto de dados massivo de texto e código. LLMs como o Grok usam redes neurais com bilhões de parâmetros para entender e gerar texto semelhante ao humano. A preocupação surge da capacidade do modelo de gerar scripts e diálogos realistas que podem ser combinados com técnicas de manipulação de imagem e vídeo para criar deepfakes convincentes.
Embora os detalhes das medidas específicas do X permaneçam limitados, analistas do setor especulam que a plataforma pode estar implementando uma combinação de algoritmos de detecção, políticas de moderação de conteúdo e mecanismos de denúncia do usuário. Os algoritmos de detecção podem analisar o conteúdo de vídeo e áudio em busca de sinais reveladores de manipulação de IA, como inconsistências nos movimentos faciais ou padrões de fala não naturais. As políticas de moderação de conteúdo delineariam a posição da plataforma sobre deepfakes e as consequências para os usuários que os criam ou compartilham. Os mecanismos de denúncia do usuário permitiriam que os usuários sinalizassem conteúdo potencialmente prejudicial para revisão pela equipe de moderação do X.
A ascensão de ferramentas de IA generativas como o Grok apresentou um desafio significativo para plataformas de mídia social e formuladores de políticas. As regulamentações existentes geralmente lutam para acompanhar os rápidos avanços na tecnologia de IA. A Lei de IA da União Europeia, por exemplo, visa regular os sistemas de IA com base em seu nível de risco, mas sua eficácia no tratamento da ameaça específica de deepfakes ainda está para ser vista.
O impacto da indústria das ações do X pode ser substancial, potencialmente estabelecendo um precedente para outras plataformas seguirem. À medida que a tecnologia deepfake se torna mais sofisticada e acessível, a pressão sobre as empresas de mídia social para abordar proativamente a questão só aumentará. O desenvolvimento e a implantação de estratégias eficazes de detecção e mitigação serão cruciais para manter a confiança pública e evitar a disseminação de desinformação.
O X ainda não divulgou uma declaração abrangente descrevendo seus planos específicos para lidar com deepfakes gerados pelo Grok. Mais detalhes são esperados nas próximas semanas.
Discussion
Join the conversation
Be the first to comment