O número 10 de Downing Street expressou aprovação aos relatos que indicam que o X, anteriormente conhecido como Twitter, está tomando medidas para lidar com a questão dos deepfakes gerados usando o Grok, seu modelo de inteligência artificial. A medida surge em meio a crescentes preocupações sobre o potencial uso indevido de conteúdo gerado por IA para espalhar desinformação e propaganda.
A resposta positiva do governo reflete um esforço mais amplo para o desenvolvimento e implantação responsáveis da IA. "Apoiamos quaisquer esforços para mitigar os riscos associados aos deepfakes gerados por IA", afirmou um porta-voz do governo. "É crucial que as empresas de tecnologia tomem medidas proativas para garantir que suas tecnologias não sejam usadas para fins maliciosos."
Deepfakes, uma junção de "deep learning" (aprendizado profundo) e "fake" (falso), são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. O Grok, o modelo de linguagem grande do X, é capaz de gerar texto e imagens realistas, levantando preocupações de que possa ser usado para criar conteúdo convincente, mas fabricado. A tecnologia se baseia em algoritmos sofisticados, incluindo redes generativas adversariais (GANs), para aprender e replicar padrões de dados existentes. As GANs envolvem duas redes neurais, um gerador e um discriminador, que competem entre si para produzir resultados cada vez mais realistas.
As medidas específicas que o X estaria implementando para combater os deepfakes gerados pelo Grok não foram totalmente divulgadas. No entanto, especialistas do setor especulam que elas podem incluir a marca d'água em conteúdo gerado por IA, o desenvolvimento de ferramentas de detecção para identificar deepfakes e a implementação de políticas de moderação de conteúdo mais rígidas. A marca d'água envolve a incorporação de um sinal sutil, muitas vezes imperceptível, em uma imagem ou vídeo para indicar que foi criado por IA. As ferramentas de detecção usam algoritmos de aprendizado de máquina para analisar a mídia e identificar sinais reveladores de manipulação.
A ascensão dos deepfakes representa um desafio significativo para a confiança e a credibilidade na era digital. Especialistas alertam que esses vídeos e imagens fabricados podem ser usados para manipular a opinião pública, prejudicar reputações e até incitar a violência. O impacto potencial nas eleições e no discurso político é particularmente preocupante.
Outras plataformas de mídia social e desenvolvedores de IA também estão lidando com a questão dos deepfakes. Empresas como Meta e Google investiram pesadamente em pesquisa e desenvolvimento para detectar e remover mídia manipulada de suas plataformas. A Partnership on AI, um consórcio de empresas de tecnologia, acadêmicos e organizações da sociedade civil, está trabalhando para desenvolver diretrizes éticas e melhores práticas para o desenvolvimento de IA.
O status atual dos esforços do X para lidar com os deepfakes do Grok permanece incerto. Mais detalhes devem ser divulgados pela empresa nas próximas semanas. O governo indicou que continuará monitorando a situação de perto e trabalhando com empresas de tecnologia para garantir o desenvolvimento e a implantação responsáveis das tecnologias de IA.
Discussion
Join the conversation
Be the first to comment