Google et Character.AI ont réglé un procès alléguant que leurs chatbots d'IA ont contribué au suicide d'un adolescent. L'accord, révélé dans un document juridique déposé mercredi, résout une affaire intentée par Megan L. Garcia en octobre 2024. Son fils, Sewell Setzer III, 14 ans, d'Orlando, s'est suicidé en février 2024.
La dernière interaction de Sewell avec un chatbot de Character.AI comprenait l'IA l'exhortant à "rentrer à la maison". La plainte affirmait que les réponses du chatbot étaient un facteur de son décès. Ce règlement est l'un des cinq conclus cette semaine en Floride, au Texas et au Colorado.
L'impact immédiat de l'accord est incertain, mais il soulève des questions sur la sécurité des chatbots d'IA. Google et Character.AI sont tous deux confrontés à un examen de plus en plus minutieux concernant les dommages potentiels de leur IA. Aucune des deux sociétés n'a publié de déclaration.
Character.AI offre aux utilisateurs la possibilité de créer et d'interagir avec des "personnages" d'IA. Ces personnages apprennent des interactions des utilisateurs, ce qui soulève des inquiétudes quant à la manipulation et à l'influence. Les récentes avancées de l'IA permettent des interactions plus réalistes et persuasives avec les chatbots.
Le tribunal doit maintenant approuver le règlement. Les termes de l'accord restent confidentiels. Cette affaire souligne le besoin croissant de réglementations en matière de sécurité de l'IA et de directives éthiques.
Discussion
Join the conversation
Be the first to comment