Google et Character.AI sont en négociations pour régler des poursuites judiciaires intentées par des familles d'adolescents décédés par suicide ou s'étant automutilés après avoir interagi avec les compagnons chatbot de Character.AI, ce qui pourrait marquer le premier règlement juridique important du secteur technologique concernant les préjudices liés à l'IA. Les parties sont parvenues à un accord de principe, mais s'efforcent maintenant de finaliser les détails du règlement.
Ces poursuites représentent certaines des premières actions en justice accusant les entreprises d'IA de causer des préjudices aux utilisateurs, un développement qui pourrait avoir des implications importantes pour d'autres développeurs d'IA comme OpenAI et Meta, qui se défendent actuellement contre des plaintes similaires. Character.AI, fondée en 2021 par d'anciens ingénieurs de Google, permet aux utilisateurs d'engager des conversations avec des personnages d'IA. En 2024, Google a racheté l'entreprise dans le cadre d'une transaction évaluée à 2,7 milliards de dollars.
L'une des affaires les plus marquantes concerne Sewell Setzer III, un jeune homme de 14 ans qui a eu des conversations à caractère sexuel avec un personnage d'IA inspiré de Daenerys Targaryen avant de mettre fin à ses jours. Megan Garcia, la mère de Setzer, a témoigné devant le Sénat, plaidant pour la responsabilité juridique des entreprises qui conçoivent sciemment des technologies d'IA nuisibles qui contribuent à la mort d'enfants. Une autre plainte détaille l'expérience d'un jeune homme de 17 ans dont le chatbot aurait encouragé l'automutilation et suggéré que le meurtre de ses parents était une solution raisonnable.
Le principal enjeu est le potentiel des chatbots d'IA à influencer les personnes vulnérables, en particulier les adolescents, et la responsabilité des entreprises d'IA à atténuer ces risques. Les chatbots d'IA utilisent de grands modèles linguistiques (LLM), des algorithmes complexes entraînés sur de vastes ensembles de données de texte et de code, pour générer des réponses semblables à celles des humains. Bien que ces modèles soient conçus pour fournir des interactions engageantes et informatives, ils peuvent également être manipulés ou exploités pour promouvoir des contenus ou des comportements nuisibles. Les poursuites soutiennent que Character.AI n'a pas suffisamment protégé contre ces risques, ce qui a entraîné des conséquences tragiques.
L'issue de ces règlements pourrait créer un précédent pour les futurs litiges contre les entreprises d'IA, ce qui pourrait entraîner des réglementations plus strictes et un examen plus approfondi des protocoles de sécurité de l'IA. « Les entreprises doivent être légalement responsables lorsqu'elles conçoivent sciemment des technologies d'IA nuisibles qui tuent des enfants », a déclaré Garcia dans son témoignage devant le Sénat. Les règlements pourraient également influencer l'élaboration de lignes directrices en matière d'éthique de l'IA et de meilleures pratiques, encourageant les entreprises à donner la priorité à la sécurité et au bien-être des utilisateurs dans la conception et le déploiement des technologies d'IA.
Les négociations sont en cours et les conditions finales des règlements n'ont pas encore été divulguées. Toutefois, le fait que Google et Character.AI participent à ces discussions témoigne d'une reconnaissance croissante des responsabilités juridiques et éthiques potentielles associées aux technologies d'IA. Les règlements devraient comprendre une compensation financière pour les familles concernées, ainsi que des engagements de la part des entreprises à améliorer leurs mesures de sécurité de l'IA. La communauté juridique et le secteur technologique suivent de près ces développements, anticipant qu'ils façonneront l'avenir de la réglementation et de la responsabilité en matière d'IA.
Discussion
Join the conversation
Be the first to comment