Google e Character.AI estão em negociações para resolver ações judiciais movidas por famílias de adolescentes que morreram por suicídio ou se feriram após interagirem com os companheiros chatbot da Character.AI. Os acordos em princípio marcam o que pode ser os primeiros grandes acordos legais da indústria de tecnologia relativos a supostos danos relacionados à IA. A finalização dos detalhes desses acordos ainda está pendente.
Esses casos representam algumas das ações legais iniciais acusando empresas de IA de causar danos aos usuários. Os resultados podem estabelecer precedentes, já que outras empresas de IA, incluindo OpenAI e Meta, enfrentam ações judiciais semelhantes. A Character.AI, estabelecida em 2021 por ex-engenheiros do Google, permite que os usuários participem de conversas com personas de IA. O Google readquiriu a empresa em 2024 em um acordo de US$ 2,7 bilhões.
Um caso proeminente envolve Sewell Setzer III, um jovem de 14 anos que se envolveu em conversas sexualmente explícitas com um chatbot de IA de Daenerys Targaryen antes de sua morte. Megan Garcia, mãe de Setzer, testemunhou perante o Senado, defendendo a responsabilização legal das empresas que criam conscientemente tecnologias de IA prejudiciais. "As empresas devem ser legalmente responsabilizadas quando projetam conscientemente tecnologias de IA prejudiciais que matam crianças", afirmou Garcia. Outra ação judicial detalha um jovem de 17 anos cujo chatbot supostamente incentivou a automutilação e sugeriu violência contra seus pais.
As ações judiciais levantam questões complexas sobre a responsabilidade dos desenvolvedores de IA pelas ações de seus sistemas de IA. A plataforma da Character.AI usa grandes modelos de linguagem (LLMs) para gerar respostas, criando a ilusão de conversa. Os LLMs são treinados em vastos conjuntos de dados de texto e código, permitindo que prevejam e gerem texto semelhante ao humano. No entanto, essa tecnologia também pode ser explorada para gerar conteúdo prejudicial ou inadequado, particularmente quando os usuários tentam intencionalmente obter tais respostas.
Os acordos podem influenciar o desenvolvimento e a regulamentação das tecnologias de IA. Se as empresas de IA forem responsabilizadas por danos causados por seus sistemas, elas podem ser compelidas a implementar medidas de segurança e políticas de moderação de conteúdo mais rigorosas. Isso pode incluir filtragem aprimorada de conteúdo prejudicial, sistemas de verificação de idade e melhor monitoramento das interações do usuário.
As negociações em andamento estão sendo observadas de perto pela indústria de tecnologia e por especialistas jurídicos. Os termos dos acordos podem fornecer informações sobre como os tribunais e as empresas estão abordando a questão da responsabilidade da IA. Os resultados também podem levar os legisladores a considerar novas regulamentações que regem o desenvolvimento e a implantação de tecnologias de IA para proteger os usuários de possíveis danos.
Discussion
Join the conversation
Be the first to comment