L'outil d'IA Grok d'Elon Musk ne pourra plus modifier les photos de personnes réelles pour les représenter dans des vêtements révélateurs dans les juridictions où de telles modifications sont illégales. L'annonce, faite sur X, la plateforme de médias sociaux appartenant à Musk où Grok a été lancé en 2023, fait suite à une inquiétude généralisée concernant le potentiel des deepfakes sexuels générés par l'IA.
X a déclaré que des "mesures technologiques" ont été mises en œuvre pour empêcher le compte Grok de permettre la modification d'images de personnes réelles dans des vêtements révélateurs. Cette décision intervient après les critiques et l'examen minutieux des régulateurs et du public concernant l'utilisation abusive potentielle de la technologie de l'IA pour créer du contenu sexuellement explicite non consensuel.
Le gouvernement britannique a réagi, qualifiant ce changement de "justification" de son appel à X pour qu'il contrôle Grok. Ofcom, l'autorité britannique de régulation des communications, a qualifié cette évolution de "bienvenue", mais a souligné que son enquête visant à déterminer si la plateforme a violé les lois britanniques "reste en cours". Ofcom a déclaré qu'ils "travaillent jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier". La secrétaire à la technologie, Liz Kendall, s'est également félicitée de cette initiative, ajoutant qu'elle "s'attend à ce que les faits soient pleinement et solidement établis par l'enquête en cours d'Ofcom".
La capacité des outils d'IA comme Grok à manipuler des images soulève d'importantes questions éthiques et juridiques. Les deepfakes, qui sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance de quelqu'un d'autre, sont devenus de plus en plus sophistiqués, ce qui les rend difficiles à détecter. Cela a suscité des inquiétudes quant à leur utilisation potentielle à des fins malveillantes, notamment la création de pornographie non consensuelle, les campagnes de désinformation et le vol d'identité.
Les mesures techniques mises en œuvre par X pour empêcher Grok de créer de telles images n'ont pas été détaillées dans l'annonce. Cependant, les solutions potentielles pourraient inclure des algorithmes de filtrage conçus pour détecter et bloquer les invites qui demandent la création de contenu sexuellement explicite, ainsi que le filigrane des images générées par l'IA pour indiquer leur origine synthétique.
Des militants et des victimes ont fait valoir que ce changement intervient trop tard pour réparer le préjudice déjà causé. La journaliste et militante Jess Davies, qui n'a pas été citée directement dans le matériel source fourni, a probablement participé à la sensibilisation à ce problème. L'incident met en évidence les défis liés à la réglementation des technologies d'IA en évolution rapide et la nécessité de prendre des mesures proactives pour empêcher leur utilisation abusive. L'enquête en cours d'Ofcom examinera probablement dans quelle mesure X était au courant du potentiel d'utilisation de Grok à des fins malveillantes et quelles mesures, le cas échéant, la société a prises pour empêcher une telle utilisation abusive. L'issue de l'enquête pourrait avoir des implications importantes pour la réglementation des technologies d'IA sur les plateformes de médias sociaux.
Discussion
Join the conversation
Be the first to comment