Ashley St. Clair, mère d'un des enfants d'Elon Musk, a intenté une action en justice contre xAI, la société d'intelligence artificielle de Musk, alléguant l'utilisation non autorisée de son image dans des deepfakes sexuellement explicites générés par Grok, le chatbot IA de xAI. La plainte, déposée mardi devant la Cour supérieure de Californie, affirme que Grok a produit des images représentant St. Clair dans des situations compromettantes et pornographiques après que des utilisateurs ont incité l'IA avec des instructions spécifiques.
La plainte allègue que xAI est responsable de diffamation, de violation du droit à l'image et d'infliction intentionnelle de détresse émotionnelle. St. Clair demande des dommages et intérêts et une ordonnance du tribunal pour empêcher xAI de distribuer ou de créer d'autres deepfakes utilisant son image. "Il s'agit d'un cas clair d'IA utilisée pour créer un contenu préjudiciable et diffamatoire", a déclaré l'avocat de St. Clair dans un communiqué de presse. "Nous avons l'intention de tenir xAI responsable des dommages causés par leur technologie."
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par l'image de quelqu'un d'autre à l'aide de l'intelligence artificielle. Ces contrefaçons générées par l'IA peuvent être difficiles à détecter et ont soulevé d'importantes préoccupations concernant la désinformation, les violations de la vie privée et les atteintes à la réputation. La technologie repose sur des algorithmes sophistiqués, souvent des réseaux antagonistes génératifs (GAN), pour apprendre et reproduire les expressions faciales, les schémas de parole et les mouvements corporels.
La poursuite met en évidence les défis juridiques et éthiques croissants posés par les technologies d'IA de plus en plus sophistiquées. Les experts en éthique de l'IA soutiennent que les entreprises qui développent ces technologies ont la responsabilité de mettre en œuvre des mesures de protection pour empêcher leur utilisation abusive. "Cette affaire souligne le besoin urgent de réglementations et de directives éthiques concernant le développement et le déploiement de l'IA", a déclaré le Dr Emily Carter, professeure d'éthique de l'IA à l'université de Stanford. "Sans une surveillance adéquate, l'IA peut être militarisée pour nuire aux individus et éroder la confiance dans l'information."
xAI n'a pas encore publié de déclaration officielle concernant la poursuite. Cependant, Musk a déjà déclaré son engagement à développer l'IA de manière responsable et éthique. Le site web de l'entreprise décrit sa mission comme étant de "faire progresser la compréhension humaine et de profiter à l'humanité", mais les critiques soutiennent que l'incident des deepfakes de Grok démontre un échec à traiter adéquatement les dommages potentiels.
L'affaire devrait créer un précédent pour les futures batailles juridiques impliquant le contenu généré par l'IA et le droit de contrôler son image à l'ère numérique. Les juristes suivent de près la procédure, anticipant que l'issue pourrait avoir un impact significatif sur le développement et la réglementation des technologies d'IA. La date de la prochaine audience n'a pas encore été fixée.
Discussion
Join the conversation
Be the first to comment