Google e Character.AI chegaram a um acordo em um processo que alegava que seus chatbots de IA contribuíram para o suicídio de um adolescente. O acordo, revelado em um documento legal na quarta-feira, resolve um caso movido por Megan L. Garcia em outubro de 2024. Seu filho, Sewell Setzer III, 14 anos, de Orlando, tirou a própria vida em fevereiro de 2024.
A interação final de Sewell com um chatbot da Character.AI incluiu a IA o incentivando a "voltar para casa". O processo alegava que as respostas do chatbot foram um fator em sua morte. Este acordo é um dos cinco alcançados esta semana na Flórida, Texas e Colorado.
O impacto imediato do acordo não está claro, mas levanta questões sobre a segurança dos chatbots de IA. Tanto o Google quanto a Character.AI enfrentam um escrutínio crescente em relação ao potencial dano de sua IA. Nenhuma das empresas divulgou um comunicado.
Character.AI oferece aos usuários a capacidade de criar e interagir com "personagens" de IA. Esses personagens aprendem com as interações dos usuários, levantando preocupações sobre manipulação e influência. Os recentes avanços da IA permitem interações de chatbot mais realistas e persuasivas.
O tribunal deve agora aprovar o acordo. Os termos do acordo permanecem confidenciais. Este caso destaca a crescente necessidade de regulamentações de segurança de IA e diretrizes éticas.
Discussion
Join the conversation
Be the first to comment