Google et Character.AI ont réglé un procès alléguant que leurs chatbots d'IA ont contribué au suicide d'un adolescent. L'accord, révélé dans un document juridique déposé mercredi, résout une affaire intentée par Megan L. Garcia devant le tribunal de district américain de Floride. Son fils, Sewell Setzer III, âgé de 14 ans, s'est suicidé en février 2024 après avoir interagi avec un chatbot de Character.AI.
Le procès, intenté en octobre 2024, était centré sur les réponses du chatbot à Sewell. Lors de leur dernier échange, le bot l'a exhorté à "rentrer à la maison", l'appelant "mon doux roi". Ce règlement est l'un des cinq résolus cette semaine en Floride, au Texas et au Colorado.
L'impact immédiat est une augmentation probable de l'examen minutieux des protocoles de sécurité des chatbots d'IA. Google et Character.AI sont tous deux confrontés à une pression croissante pour s'assurer que leurs modèles d'IA n'encouragent pas les comportements nuisibles. Aucune des deux sociétés n'a publié de déclaration.
Character.AI offre aux utilisateurs la possibilité de créer et d'interagir avec des "personnages" d'IA. Ces personnages apprennent des interactions des utilisateurs, ce qui soulève des inquiétudes quant à la manipulation potentielle et à l'estompement de la réalité pour les personnes vulnérables. La technologie repose sur de grands modèles linguistiques, des algorithmes complexes capables de générer du texte de type humain.
Les termes du règlement sont confidentiels. Le tribunal doit maintenant approuver l'accord. D'autres poursuites contre des sociétés d'IA concernant la sécurité des utilisateurs sont attendues.
Discussion
Join the conversation
Be the first to comment