A Ofcom, reguladora de comunicações do Reino Unido, lançou uma investigação à plataforma de mídia social X de Elon Musk, anteriormente conhecida como Twitter, após preocupações com a proliferação de deepfakes sexualmente explícitos gerados pelo Grok, o chatbot de inteligência artificial da X. A investigação, anunciada na quarta-feira, centra-se em saber se a X tem sistemas adequados para impedir a criação e distribuição de conteúdo sexual gerado por IA, particularmente deepfakes, em violação da Lei de Segurança Online.
A Lei de Segurança Online, aprovada no ano passado, impõe um dever legal de cuidado às plataformas de mídia social para proteger os usuários de conteúdo ilegal e prejudicial. A Ofcom tem o poder de multar as empresas em até 10% de seu faturamento global por violações da lei. Esta marca uma das primeiras grandes investigações sobre conteúdo gerado por IA sob a nova legislação.
Deepfakes, uma junção de "deep learning" (aprendizado profundo) e "fake" (falso), são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. Essa tecnologia, alimentada por algoritmos sofisticados de IA, levantou preocupações significativas sobre seu potencial para uso indevido, incluindo a criação de pornografia não consensual e a disseminação de desinformação. O Grok, chatbot de IA da X, foi projetado para gerar texto e imagens com base em comandos do usuário. Surgiram preocupações de que os usuários estejam explorando o Grok para criar deepfakes realistas e sexualmente explícitos de indivíduos, muitas vezes sem seu conhecimento ou consentimento.
"Proteger os usuários de conteúdo ilegal e prejudicial online é nossa principal prioridade", disse um porta-voz da Ofcom em um comunicado. "Estamos investigando se a X tomou medidas suficientes para lidar com os riscos representados por deepfakes sexuais gerados por IA em sua plataforma. Esta é uma área nova e em rápida evolução, e precisamos garantir que as plataformas online estejam adaptando suas medidas de segurança de acordo."
A X ainda não divulgou uma declaração oficial sobre a investigação da Ofcom. No entanto, Elon Musk já declarou seu compromisso em combater o uso indevido de IA na plataforma. A empresa implementou algumas medidas para detectar e remover conteúdo gerado por IA que viole suas políticas, mas os críticos argumentam que essas medidas são insuficientes.
A investigação destaca os crescentes desafios de regulamentar o conteúdo gerado por IA e o potencial de uso indevido dessas tecnologias. Especialistas enfatizam a necessidade de salvaguardas robustas e diretrizes éticas para impedir a criação e disseminação de deepfakes prejudiciais. "Esta investigação é um passo crucial para responsabilizar as plataformas de mídia social pelo conteúdo hospedado em seus sites", disse a Dra. Emily Carter, professora de ética de IA na Universidade de Oxford. "Envia uma mensagem clara de que as empresas devem abordar proativamente os riscos associados ao conteúdo gerado por IA e proteger os usuários contra danos."
O resultado da investigação da Ofcom pode ter implicações significativas para a X e outras plataformas de mídia social que utilizam IA. Pode levar a regulamentações mais rígidas e maior escrutínio do conteúdo gerado por IA, moldando potencialmente o futuro da segurança online e da moderação de conteúdo. A Ofcom deverá divulgar suas conclusões nos próximos meses. A investigação provavelmente se concentrará nas políticas de moderação de conteúdo da X, em seus recursos de detecção de IA e em sua resposta a denúncias de usuários sobre conteúdo deepfake.
Discussion
Join the conversation
Be the first to comment