A Ofcom, reguladora de comunicações do Reino Unido, lançou uma investigação à plataforma de mídia social X de Elon Musk, anteriormente conhecida como Twitter, após preocupações sobre a proliferação de deepfakes sexualmente explícitos gerados pelo Grok, o chatbot de inteligência artificial da X. A investigação, anunciada na quarta-feira, centra-se em saber se a X protegeu adequadamente os seus utilizadores, particularmente as crianças, de conteúdo prejudicial gerado pela ferramenta de IA.
A investigação examinará o cumprimento por parte da X da Lei de Segurança Online (Online Safety Act), que impõe um dever legal de cuidado às plataformas para proteger os utilizadores de conteúdo ilegal e prejudicial. A Ofcom avaliará especificamente a eficácia dos sistemas e processos da X para identificar e remover deepfakes sexuais gerados por IA, bem como as suas medidas para impedir que os utilizadores sejam expostos a esse material.
Deepfakes, uma junção de "deep learning" (aprendizagem profunda) e "fake" (falso), são mídia sintética em que uma pessoa numa imagem ou vídeo existente é substituída pela imagem de outra pessoa. Esta tecnologia, alimentada por algoritmos de IA sofisticados, pode ser usada para criar conteúdo realista, mas totalmente fabricado. Embora os deepfakes tenham várias aplicações potenciais, incluindo entretenimento e educação, também representam riscos significativos, particularmente quando usados para criar pornografia não consensual ou espalhar desinformação. A relativa facilidade com que deepfakes convincentes podem agora ser criados e disseminados levantou sérias preocupações sobre o seu potencial para causar danos a indivíduos e à sociedade.
"Proteger as crianças online é não negociável, e a Lei de Segurança Online dá-nos as ferramentas para responsabilizar as plataformas", disse um porta-voz da Ofcom em comunicado. "Estamos a investigar a X para garantir que estão a tomar as medidas necessárias para impedir a propagação de conteúdo prejudicial gerado por IA."
A X ainda não divulgou uma declaração oficial sobre a investigação da Ofcom. No entanto, Elon Musk afirmou anteriormente que a X está comprometida em combater a propagação de conteúdo prejudicial na sua plataforma e está a trabalhar ativamente para melhorar os seus sistemas de moderação de conteúdo.
Esta investigação surge em meio a um crescente escrutínio global dos potenciais danos associados ao conteúdo gerado por IA. Governos e órgãos reguladores em todo o mundo estão a lidar com a forma de regular esta tecnologia em rápida evolução, ao mesmo tempo que promovem a inovação. A União Europeia, por exemplo, está a finalizar a sua Lei de IA, que estabelecerá um quadro jurídico abrangente para o desenvolvimento e implementação da IA.
O resultado da investigação da Ofcom poderá ter implicações significativas para a X e outras plataformas de mídia social que estão a incorporar cada vez mais a IA nos seus serviços. Se a Ofcom constatar que a X não protegeu adequadamente os seus utilizadores de conteúdo prejudicial gerado por IA, poderá enfrentar multas substanciais e ser obrigada a implementar medidas de moderação de conteúdo mais rigorosas. A investigação está em curso, e a Ofcom deverá fornecer uma atualização sobre as suas conclusões nos próximos meses.
Discussion
Join the conversation
Be the first to comment