A Ofcom, reguladora de comunicações do Reino Unido, lançou uma investigação sobre a plataforma de mídia social X, de Elon Musk, anteriormente conhecida como Twitter, após preocupações com a proliferação de deepfakes sexualmente explícitos gerados pelo Grok, o chatbot de inteligência artificial da X. A investigação, anunciada na quarta-feira, centra-se em saber se a X tem sistemas adequados em vigor para impedir a criação e disseminação de conteúdo sexual gerado por IA, particularmente deepfakes, em violação da Lei de Segurança Online (Online Safety Act).
A Lei de Segurança Online, que entrou em vigor no início deste ano, impõe um dever legal de cuidado às plataformas de mídia social para proteger os usuários de conteúdo ilegal e prejudicial. A Ofcom tem o poder de multar as empresas em até 10% de seu faturamento global por violações da Lei. Esta marca uma das primeiras grandes investigações sob a nova legislação, focando especificamente em conteúdo gerado por IA.
Deepfakes, uma junção de "deep learning" (aprendizado profundo) e "fake" (falso), são mídias sintéticas nas quais uma pessoa em uma imagem ou vídeo existente é substituída pela imagem de outra pessoa. Esta tecnologia utiliza algoritmos sofisticados de inteligência artificial, especificamente redes neurais profundas, para trocar rostos ou manipular conteúdo de áudio e vídeo de forma convincente. Embora os deepfakes tenham usos legítimos, como na produção de filmes e na expressão artística, eles também representam riscos significativos, incluindo a criação de pornografia não consensual, a disseminação de desinformação e o potencial de danos à reputação.
"Proteger os usuários de conteúdo ilegal e prejudicial online é nossa principal prioridade", afirmou um porta-voz da Ofcom. "Estamos investigando a X para avaliar se eles estão cumprindo suas obrigações sob a Lei de Segurança Online para impedir a disseminação de deepfakes sexuais gerados por IA. Esta é uma área nova e em rápida evolução, e precisamos garantir que as plataformas estejam tomando as medidas apropriadas para proteger seus usuários."
A X ainda não divulgou uma declaração oficial sobre a investigação. No entanto, Elon Musk já declarou seu compromisso em combater o uso indevido de IA na plataforma. O Grok, o chatbot de IA da X, foi lançado no final do ano passado e foi projetado para responder a perguntas de forma conversacional e, às vezes, bem-humorada. No entanto, foram levantadas preocupações sobre seu potencial de ser explorado para fins maliciosos, incluindo a geração de conteúdo prejudicial.
Especialistas em ética de IA e segurança online saudaram a investigação da Ofcom. "Este é um passo crucial para responsabilizar as plataformas de mídia social pelo conteúdo gerado e compartilhado em seus sites", disse a Dra. Emily Carter, pesquisadora do Oxford Internet Institute especializada em governança de IA. "O rápido avanço da tecnologia de IA exige uma regulamentação proativa para mitigar os riscos de uso indevido, particularmente no contexto de deepfakes e imagens não consensuais."
A investigação provavelmente envolverá uma avaliação completa das políticas de moderação de conteúdo da X, suas capacidades de detecção de IA e seus procedimentos para responder a denúncias de conteúdo prejudicial. A Ofcom também examinará as medidas que a X tem em vigor para impedir a criação e disseminação de deepfakes pelo Grok. O resultado da investigação pode ter implicações significativas para o futuro da regulamentação da IA e as responsabilidades das plataformas de mídia social na era da mídia sintética. A Ofcom deverá fornecer uma atualização sobre suas descobertas nos próximos meses.
Discussion
Join the conversation
Be the first to comment