L'outil d'IA Grok d'Elon Musk ne pourra plus modifier les photos de personnes réelles pour les représenter dans des tenues révélatrices dans les juridictions où de telles modifications sont illégales, selon une annonce sur X. Cette décision fait suite à une inquiétude généralisée concernant le potentiel de deepfakes sexuels générés par la plateforme.
X, la plateforme de médias sociaux détenue par Elon Musk, a déclaré avoir mis en œuvre des mesures technologiques pour empêcher le compte Grok d'autoriser la modification d'images de personnes réelles dans des tenues révélatrices. L'entreprise a lancé Grok en 2023.
Le gouvernement britannique a réagi à ce changement, le qualifiant de « justification » de son appel à X pour qu'il contrôle Grok. L'Ofcom, l'autorité britannique de régulation des communications, a décrit cette mesure comme une « évolution positive », mais a souligné que son enquête visant à déterminer si la plateforme a violé les lois britanniques « reste en cours ». L'Ofcom a déclaré qu'elle s'efforçait de faire avancer l'enquête et de déterminer ce qui n'a pas fonctionné et ce qui est fait pour y remédier.
La secrétaire à la Technologie, Liz Kendall, s'est félicitée de cette mesure, mais a déclaré qu'elle « s'attendait à ce que les faits soient pleinement et solidement établis par l'enquête en cours de l'Ofcom ».
Des militants et des victimes affirment que ce changement arrive trop tard pour réparer les dommages déjà causés par la technologie. La journaliste et militante Jess Davies fait partie de ceux qui ont exprimé leurs préoccupations.
La technologie derrière Grok, comme de nombreux outils d'édition d'images par IA, utilise des modèles d'apprentissage profond entraînés sur de vastes ensembles de données d'images. Ces modèles peuvent être manipulés pour modifier des images existantes de diverses manières, notamment en ajoutant ou en supprimant des vêtements. Le problème se pose lorsque ces capacités sont utilisées pour créer des images sexuellement explicites non consensuelles, souvent appelées deepfakes.
L'impact de cette décision sur l'industrie reste à déterminer. D'autres plateformes d'édition d'images par IA pourraient faire l'objet d'un examen accru et de pressions pour mettre en œuvre des mesures de protection similaires. L'incident souligne les défis éthiques associés à l'évolution rapide de la technologie de l'IA et la nécessité de prendre des mesures proactives pour prévenir les abus.
Discussion
Join the conversation
Be the first to comment