Selon une annonce sur X, l'outil d'IA Grok d'Elon Musk ne pourra plus modifier les photos de personnes réelles pour les représenter dans des tenues révélatrices dans les juridictions où de telles modifications sont illégales. Cette décision fait suite à une inquiétude généralisée concernant les deepfakes sexuellement explicites générés par le chatbot d'IA de la plateforme.
X, la plateforme de médias sociaux détenue par Elon Musk, a déclaré avoir mis en œuvre des mesures technologiques pour empêcher le compte Grok d'autoriser la modification d'images de personnes réelles dans des tenues révélatrices. Cette initiative fait suite à une surveillance accrue et à la pression des organismes de réglementation et des groupes de défense concernant l'utilisation abusive potentielle de la technologie de l'IA.
Le gouvernement britannique a réagi à ce changement, le qualifiant de "justification" de ses appels à X pour qu'il contrôle Grok. L'organisme de réglementation Ofcom a qualifié cette évolution de "bienvenue", mais a souligné que son enquête visant à déterminer si la plateforme a violé les lois britanniques "reste en cours". Ofcom a déclaré : "Nous travaillons jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier."
La secrétaire à la Technologie, Liz Kendall, s'est également félicitée de cette initiative, mais a déclaré qu'elle "s'attendait à ce que les faits soient pleinement et solidement établis par l'enquête en cours d'Ofcom".
Grok, lancé sur X en 2023, est un chatbot d'IA conçu pour générer du texte et des images. La technologie utilise des algorithmes d'apprentissage automatique pour analyser et manipuler le contenu numérique. Les mesures technologiques spécifiques mises en œuvre par X pour empêcher la création de deepfakes n'ont pas été divulguées.
Des militants et des victimes ont fait valoir que ce changement est insuffisant pour réparer le préjudice déjà causé par la technologie. La journaliste et militante Jess Davies, qui n'a pas été citée directement, a été une critique virulente de la manière dont la plateforme gère le contenu sexualisé généré par l'IA.
L'incident met en évidence les défis permanents que représente la réglementation de la technologie de l'IA et la prévention de son utilisation abusive. La capacité de créer des deepfakes réalistes soulève d'importantes préoccupations éthiques et juridiques, notamment en ce qui concerne la vie privée, le consentement et la diffamation. L'impact de cette décision sur l'industrie pourrait amener d'autres plateformes d'IA à réévaluer leurs protocoles de sécurité et leurs politiques de modération du contenu.
Discussion
Join the conversation
Be the first to comment