A Ofcom, reguladora de comunicações do Reino Unido, solicitou informações à X, anteriormente conhecida como Twitter, sobre relatos de que seu modelo de IA Grok está gerando imagens sexualizadas de crianças. O pedido surge após crescentes preocupações sobre o potencial uso indevido da inteligência artificial na criação de conteúdo prejudicial, particularmente envolvendo menores.
A reguladora está buscando detalhes sobre as salvaguardas que a X implementou para impedir a geração e disseminação de tais imagens, e como a empresa está respondendo às alegações. A Ofcom tem o poder de multar empresas que não protegem os usuários de conteúdo prejudicial, e esta investigação sinaliza uma séria preocupação com o cumprimento, pela X, das regulamentações de segurança online do Reino Unido.
Grok, o chatbot de IA da X, é um modelo de linguagem grande (LLM), um tipo de IA treinado em vastas quantidades de dados de texto. Os LLMs podem gerar texto, traduzir idiomas e responder a perguntas, mas também podem ser solicitados a criar imagens usando técnicas de geração de imagens por IA. A preocupação é que agentes maliciosos possam explorar essas capacidades para produzir material de abuso sexual infantil (CSAM).
"Estamos profundamente preocupados com o potencial de uso indevido da IA dessa forma", disse um porta-voz da Ofcom. "Estamos pedindo à X que nos forneça informações sobre as medidas que estão tomando para evitar que isso aconteça e para garantir a segurança das crianças online."
O desenvolvimento destaca os desafios sociais mais amplos representados pelo rápido avanço da tecnologia de IA. Embora a IA ofereça inúmeros benefícios, também apresenta riscos, incluindo o potencial de uso indevido na criação e disseminação de conteúdo prejudicial. Especialistas enfatizam a necessidade de salvaguardas robustas e diretrizes éticas para mitigar esses riscos.
"A capacidade da IA de gerar imagens realistas levanta sérias preocupações sobre a criação e disseminação de CSAM", disse a Dra. Joanna Bryson, professora de ética e tecnologia na Hertie School em Berlim. "É crucial que as empresas que desenvolvem e implementam tecnologia de IA tomem medidas proativas para impedir seu uso indevido e para proteger as crianças."
A X ainda não emitiu uma declaração formal sobre o pedido da Ofcom. No entanto, a empresa já declarou seu compromisso em combater o CSAM em sua plataforma. A investigação está em andamento, e a Ofcom avaliará a resposta da X para determinar se são necessárias mais medidas. O resultado desta investigação pode ter implicações significativas para a regulamentação da IA e da segurança online no Reino Unido e em outros lugares.
Discussion
Join the conversation
Be the first to comment