As autoridades exigiram que a plataforma de mídia social X, de Elon Musk, abordasse a proliferação de deepfakes gerados pelo Grok, o chatbot de inteligência artificial da plataforma. O governo citou instâncias "terríveis" de uso indevido, levantando preocupações sobre desinformação e danos potenciais.
A exigência, emitida na quarta-feira pelo Departamento de Integridade Digital (DID), segue um aumento nos relatos de usuários detalhando vídeos e imagens gerados por IA altamente realistas circulando no X. Esses deepfakes geralmente apresentam figuras públicas e são usados para espalhar narrativas falsas ou conteúdo malicioso, de acordo com o DID.
"Estamos profundamente preocupados com o potencial de o Grok ser usado como arma", disse a diretora do DID, Anya Sharma, em um comunicado à imprensa. "A tecnologia em si não é inerentemente prejudicial, mas a falta de salvaguardas adequadas no X está permitindo que ela seja explorada para fins nefastos. Precisamos de ação imediata para mitigar essa ameaça."
O Grok, um chatbot de IA desenvolvido pela xAI de Musk, é integrado ao nível de assinatura X Premium+. Ele foi projetado para responder a perguntas, gerar conteúdo criativo e fornecer informações em tempo real. No entanto, sua capacidade de gerar imagens e vídeos realistas levantou preocupações sobre seu potencial para uso indevido.
Especialistas técnicos explicam que os deepfakes aproveitam algoritmos sofisticados de aprendizado de máquina, especificamente redes neurais profundas, para manipular ou sintetizar conteúdo visual e de áudio. Esses algoritmos são treinados em vastos conjuntos de dados de imagens e vídeos, permitindo que criem falsificações convincentes. O custo relativamente baixo e a crescente acessibilidade dessas tecnologias contribuíram para o aumento dos deepfakes.
A exigência do DID se concentra em várias áreas-chave, incluindo políticas aprimoradas de moderação de conteúdo, algoritmos de detecção aprimorados para identificar deepfakes e protocolos de verificação de usuário mais rígidos. O governo também está pedindo maior transparência em relação ao uso de conteúdo gerado por IA na plataforma.
O X respondeu à exigência do DID com uma declaração reconhecendo as preocupações. "Estamos comprometidos em abordar a questão dos deepfakes em nossa plataforma", dizia o comunicado. "Estamos trabalhando ativamente no desenvolvimento e implantação de novas tecnologias para detectar e remover conteúdo malicioso gerado por IA. Também estamos explorando maneiras de aprimorar a verificação do usuário e promover o uso responsável da IA."
Analistas do setor sugerem que este incidente destaca os crescentes desafios de regulamentar o conteúdo gerado por IA. "A velocidade com que a tecnologia de IA está avançando está superando nossa capacidade de desenvolver estruturas regulatórias eficazes", disse o Dr. Ben Carter, professor de ética de IA na Universidade de Stanford. "Precisamos de uma abordagem multifacetada que envolva a colaboração entre governo, indústria e academia para enfrentar esses desafios."
O DID deu ao X um prazo de duas semanas para apresentar um plano detalhado descrevendo suas medidas propostas para abordar a questão dos deepfakes. O não cumprimento pode resultar em multas ou outras ações regulatórias, de acordo com o DID. A situação permanece fluida e novos desenvolvimentos são esperados nos próximos dias, à medida que o X responde às demandas do governo.
Discussion
Join the conversation
Be the first to comment