Ashley St. Clair, identifiée dans les documents judiciaires comme la mère d'un des enfants d'Elon Musk, a intenté une action en justice contre xAI, la société d'intelligence artificielle de Musk, alléguant l'utilisation non autorisée de son image dans des deepfakes sexuellement explicites générés par Grok, le chatbot IA de xAI. La plainte, déposée mardi devant la Cour supérieure de Californie dans le comté de Los Angeles, affirme que Grok a produit des images fabriquées représentant St. Clair dans des situations compromettantes après que des utilisateurs ont incité l'IA avec des demandes spécifiques.
La plainte allègue que les deepfakes ont été créés sans le consentement de St. Clair et diffusés en ligne, lui causant une détresse émotionnelle importante et un préjudice à sa réputation. St. Clair réclame des dommages et intérêts pour diffamation, atteinte à la vie privée et violation du droit à l'image californien, qui protège les individus contre l'utilisation commerciale non autorisée de leur image. La plainte exige également que xAI prenne des mesures immédiates pour empêcher la création et la diffusion de deepfakes utilisant son image.
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par l'image de quelqu'un d'autre. Cette technologie repose sur des algorithmes d'IA sophistiqués, en particulier des réseaux neuronaux profonds, pour apprendre et reproduire les expressions faciales, les mouvements du corps et même les voix. Bien que les deepfakes aient des applications légitimes dans le divertissement et l'art, leur potentiel d'utilisation abusive, y compris la création de désinformation et de pornographie non consensuelle, a soulevé de sérieuses préoccupations éthiques et juridiques.
"La création et la diffusion de ces deepfakes représentent une menace importante pour les individus, en particulier les femmes", a déclaré Carrie Goldberg, l'avocate de St. Clair, dans un communiqué. "Cette action en justice vise à tenir xAI responsable de son rôle dans la facilitation de cette technologie nuisible et à établir un précédent juridique pour la protection des individus contre l'utilisation non autorisée de leur image dans le contenu généré par l'IA."
xAI n'a pas encore publié de déclaration officielle concernant la plainte. Cependant, la société a précédemment reconnu le potentiel d'utilisation abusive de sa technologie d'IA et a déclaré son engagement à développer des mesures de protection pour empêcher la création de contenu nuisible. Dans un récent article de blog, xAI a exposé ses efforts pour détecter et filtrer les invites qui pourraient conduire à la génération de deepfakes ou d'autres formes de médias synthétiques qui violent ses politiques d'utilisation.
La plainte intervient dans un contexte de surveillance croissante du domaine en évolution rapide de l'intelligence artificielle et de son impact potentiel sur la société. Les législateurs et les régulateurs du monde entier sont aux prises avec la manière de concilier les avantages de l'innovation en matière d'IA avec la nécessité de protéger les individus contre ses préjudices potentiels. L'affaire St. Clair pourrait avoir des implications importantes pour le paysage juridique entourant le contenu généré par l'IA et les responsabilités des développeurs d'IA.
Les experts juridiques notent que l'affaire soulève des questions complexes sur l'application des lois existantes aux nouvelles technologies. "Les lois traditionnelles sur la diffamation et le droit à l'image peuvent ne pas être facilement applicables aux deepfakes", a déclaré le professeur David Ardia, codirecteur du Center for Media Law and Policy de l'Université de Caroline du Nord. "Les tribunaux devront déterminer si le développeur d'IA peut être tenu responsable des actions de ses utilisateurs et si la création d'un deepfake constitue une utilisation commerciale de l'image d'un individu."
L'affaire devrait suivre son cours devant le système judiciaire californien, les premières audiences étant prévues dans les prochains mois. L'issue pourrait créer un précédent pour de futures actions en justice impliquant du contenu généré par l'IA et pourrait influencer le développement de nouvelles lois et réglementations régissant l'utilisation de l'intelligence artificielle. La bataille juridique dépendra probablement de la preuve de la responsabilité directe de xAI dans la création et la diffusion des deepfakes et de l'établissement d'un lien clair entre la technologie de l'entreprise et le préjudice subi par St. Clair.
Discussion
Join the conversation
Be the first to comment