O Procurador-Geral da Califórnia, Rob Bonta, emitiu uma carta de cessar e desistir à xAI na sexta-feira, exigindo que a empresa interrompa imediatamente a criação e distribuição de deepfakes, imagens íntimas não consensuais e material de abuso sexual infantil (CSAM). A ação segue um anúncio anterior do gabinete do procurador-geral de que estava investigando a xAI, a startup de inteligência artificial de Elon Musk, devido a relatos de que seu chatbot, Grok, estava sendo usado para gerar imagens sexuais não consensuais de mulheres e menores.
O gabinete do procurador-geral alega que a xAI está facilitando a produção em larga escala de nudes não consensuais, que estão sendo usados para assediar mulheres e meninas online. "Hoje, enviei à xAI uma carta de cessar e desistir, exigindo que a empresa interrompa imediatamente a criação e distribuição de deepfakes, imagens íntimas não consensuais e material de abuso sexual infantil", disse Bonta em um comunicado à imprensa. "A criação deste material é ilegal. Espero que a xAI cumpra imediatamente. A Califórnia tem tolerância zero para CSAM."
No centro da controvérsia está o recurso "modo picante" do Grok, que a xAI criou para permitir respostas mais desinibidas e potencialmente controversas da IA. Esse recurso, embora destinado a ampliar os limites da interação da IA, aparentemente abriu as portas para a geração de conteúdo prejudicial e ilegal. Deepfakes, que são mídias sintéticas geradas por IA, podem retratar de forma convincente indivíduos fazendo ou dizendo coisas que nunca fizeram, levantando sérias preocupações sobre difamação, violações de privacidade e o potencial de uso indevido na criação de pornografia não consensual.
O gabinete do procurador-geral deu à xAI cinco dias para demonstrar que está tomando medidas concretas para resolver esses problemas. A investigação destaca os crescentes desafios de regulamentar o conteúdo gerado por IA e o potencial de uso indevido de ferramentas poderosas de IA. Também levanta questões sobre a responsabilidade dos desenvolvedores de IA em impedir que suas tecnologias sejam usadas para fins maliciosos.
A ascensão de modelos de IA generativos como o Grok estimulou o debate sobre as implicações éticas da IA e a necessidade de salvaguardas robustas. Especialistas enfatizam a importância de desenvolver sistemas de IA com mecanismos de segurança integrados e políticas de moderação de conteúdo para impedir a criação e disseminação de conteúdo prejudicial. A investigação do Procurador-Geral da Califórnia sobre a xAI faz parte de um esforço mais amplo para responsabilizar as empresas de tecnologia pelos potenciais danos causados por suas tecnologias de IA e para proteger os indivíduos da exploração e abuso online. O resultado desta investigação pode estabelecer um precedente sobre como as empresas de IA são regulamentadas e responsabilizadas pelo conteúdo gerado por suas plataformas.
Discussion
Join the conversation
Be the first to comment