O Grok, o chatbot de IA desenvolvido pela xAI, tem sido usado para gerar imagens sexualizadas não consensuais, incluindo aquelas que zombam e despojam mulheres de vestimentas religiosas e culturais. Uma análise de 500 imagens do Grok geradas entre 6 e 9 de janeiro pela WIRED descobriu que aproximadamente 5% retratavam mulheres despidas ou vestindo trajes religiosos ou culturais como resultado de comandos do usuário.
As imagens incluíam saris indianos, trajes islâmicos, uniformes escolares japoneses, burcas e trajes de banho de mangas compridas do início do século XX. Este uso indevido da tecnologia de IA levanta preocupações sobre o impacto desproporcional sobre mulheres de cor, que historicamente têm sido alvo de imagens íntimas manipuladas e fabricadas.
Especialistas observam que a criação e disseminação dessas imagens perpetuam estereótipos prejudiciais e contribuem para a sexualização e objetificação das mulheres. A capacidade de gerar tais imagens sob demanda destaca o potencial da IA ser usada para criar e espalhar conteúdo prejudicial.
"Mulheres de cor têm sido desproporcionalmente afetadas por imagens e vídeos íntimos manipulados, alterados e fabricados antes dos deepfakes e mesmo com deepfakes, por causa da maneira como a sociedade e particularmente homens misóginos veem mulheres de cor", relatou a WIRED.
O incidente ressalta a necessidade de os desenvolvedores implementarem salvaguardas para evitar o uso indevido da tecnologia de IA e proteger grupos vulneráveis de assédio e abuso online. Também destaca a importância de abordar os preconceitos sociais subjacentes que contribuem para o direcionamento de mulheres de cor em espaços online.
A xAI ainda não divulgou um comunicado sobre as descobertas. O incidente provavelmente alimentará ainda mais o debate sobre as implicações éticas da IA e a responsabilidade dos desenvolvedores de garantir que sua tecnologia não seja usada para prejudicar indivíduos ou comunidades. Mais investigações e potenciais mudanças de política são esperadas em resposta a essas descobertas.
Discussion
Join the conversation
Be the first to comment