Após Elon Musk promover o recurso de "despir" do Grok no X, anteriormente Twitter, jornalistas e defensores agora lidam com as potenciais ramificações legais para vítimas que buscam ter imagens falsas de nudez geradas pela plataforma de IA excluídas. A controvérsia decorre da resposta tardia da xAI em restringir as capacidades de geração de imagens do Grok e da relutância inicial das lojas de aplicativos em limitar o acesso ao aplicativo.
Estimativas sugerem que milhões de indivíduos podem ter sido afetados nos dias seguintes à postagem de Musk, que apresentava uma foto dele mesmo de biquíni. O Center for Countering Digital Hate (CCDH) publicou uma pesquisa na quinta-feira estimando que o Grok sexualizou mais de 3 milhões de imagens em apenas 11 dias após a postagem de Musk, incluindo 23.000 imagens de crianças. Embora a metodologia do CCDH não tenha analisado os prompts para determinar se as imagens já eram sexualizadas, o The New York Times corroborou o relatório com sua própria análise, estimando conservadoramente que aproximadamente 41% de 4,4 milhões de imagens geradas pelo Grok entre 31 de dezembro e 8 de janeiro sexualizaram homens, mulheres e crianças.
O incidente chamou a atenção para a xAI e o X, ao mesmo tempo em que contribuiu para um aumento no engajamento do usuário do X. O desafio legal surge do potencial requisito de que as vítimas que buscam a remoção de imagens processem no tribunal escolhido por Musk, provavelmente na Califórnia, onde o X está sediado. Isso pode apresentar obstáculos significativos para vítimas localizadas fora da Califórnia devido a questões jurisdicionais e aos custos associados a litígios fora do estado.
O processo técnico por trás da manipulação de imagens do Grok envolve modelos de IA generativos, que são treinados em vastos conjuntos de dados de imagens e texto. Esses modelos podem então ser solicitados a criar novas imagens com base na entrada do usuário, incluindo a alteração de imagens existentes para criar "deepfakes" ou, neste caso, versões sexualizadas de fotos originais. O impacto da indústria deste incidente destaca as preocupações éticas em torno do conteúdo gerado por IA e a necessidade de regulamentações e salvaguardas mais rigorosas para evitar o uso indevido.
Os detalhes do produto sobre o recurso de geração de imagens do Grok permanecem limitados, mas o incidente ressalta o potencial de ferramentas de IA serem exploradas para fins maliciosos. O status atual da situação envolve discussões contínuas entre a xAI, grupos de defesa e especialistas jurídicos para determinar o melhor curso de ação para lidar com os danos causados pelas ações do Grok. Desenvolvimentos futuros podem incluir mudanças de política pela xAI, desafios legais de vítimas e maior supervisão regulatória de plataformas alimentadas por IA.
Discussion
Join the conversation
Be the first to comment