L'outil d'IA Grok d'Elon Musk ne pourra plus modifier les photos de personnes réelles pour les représenter dans des vêtements révélateurs dans les juridictions où de telles modifications sont illégales, selon une annonce sur X. Cette décision fait suite à une inquiétude généralisée concernant le potentiel de deepfakes sexuels générés par la plateforme.
X, la plateforme de médias sociaux détenue par Musk, a déclaré avoir "mis en œuvre des mesures technologiques pour empêcher le compte Grok d'autoriser la modification d'images de personnes réelles dans des vêtements révélateurs". Cette décision intervient après les critiques et l'examen réglementaire concernant l'utilisation abusive potentielle de l'outil d'IA.
Le gouvernement britannique a réagi à ce changement, le qualifiant de "justification" de ses appels à X pour qu'il contrôle Grok. Le régulateur Ofcom a qualifié cette évolution de "bienvenue", mais a souligné que son enquête visant à déterminer si la plateforme avait violé les lois britanniques "reste en cours". Ofcom a déclaré : "Nous travaillons jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier."
La secrétaire à la Technologie, Liz Kendall, s'est également félicitée de ce changement, mais a indiqué qu'elle "s'attendait à ce que les faits soient pleinement et solidement établis par l'enquête en cours d'Ofcom".
Grok, lancé sur X en 2023, est un outil d'IA conçu pour générer différents types de contenu, y compris l'édition d'images. Les mesures technologiques spécifiques mises en œuvre par X pour empêcher la création de deepfakes impliquant des vêtements révélateurs n'ont pas été divulguées. Cependant, ces mesures impliquent souvent une combinaison d'algorithmes de reconnaissance d'images, de filtrage de contenu et de mécanismes de signalement par les utilisateurs. Les algorithmes de reconnaissance d'images peuvent être entraînés à identifier et à signaler les images représentant de la nudité ou du contenu suggestif. Les filtres de contenu peuvent ensuite être utilisés pour bloquer la génération ou le partage de telles images. Les mécanismes de signalement par les utilisateurs permettent aux utilisateurs de signaler le contenu potentiellement inapproprié pour examen par l'équipe de modération de X.
L'incident met en évidence les préoccupations croissantes concernant le potentiel de l'IA à être utilisée pour créer des deepfakes et d'autres formes de contenu manipulé. Ces préoccupations ont conduit à un examen réglementaire accru des plateformes d'IA et à des appels à une plus grande transparence et responsabilité dans le développement et le déploiement des technologies d'IA.
Des militants et des victimes ont exprimé leur inquiétude quant au fait que ce changement intervient trop tard pour annuler les dommages déjà causés par la technologie. La journaliste et militante Jess Davies, qui n'a pas été citée directement dans l'annonce de X, s'est exprimée sur le potentiel des deepfakes d'IA à être utilisés pour harceler et intimider des individus.
Discussion
Join the conversation
Be the first to comment