Selon une annonce sur X, l'outil d'IA Grok d'Elon Musk ne pourra plus modifier les photos de personnes réelles pour les représenter dans des tenues révélatrices dans les juridictions où de telles modifications sont illégales. Cette décision fait suite à une inquiétude généralisée concernant le potentiel de deepfakes sexuels générés par la plateforme.
X, la plateforme de médias sociaux appartenant à Musk, a déclaré avoir mis en œuvre des mesures technologiques pour empêcher le compte Grok d'autoriser la modification d'images de personnes réelles dans des tenues révélatrices. Cette décision intervient après des critiques et un examen réglementaire concernant l'utilisation abusive potentielle de l'outil d'IA.
Le gouvernement britannique a réagi à ce changement, le qualifiant de "justification" de ses appels antérieurs à X pour qu'il contrôle Grok. Le régulateur Ofcom a décrit cette évolution comme "bienvenue", mais a souligné que son enquête visant à déterminer si la plateforme avait violé les lois britanniques "reste en cours". Ofcom a déclaré : "Nous travaillons jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier."
La secrétaire à la Technologie, Liz Kendall, s'est également félicitée de cette initiative, mais a indiqué qu'elle "s'attendait à ce que les faits soient pleinement et solidement établis par l'enquête en cours d'Ofcom".
Grok, lancé sur X en 2023, est un outil d'IA conçu pour générer divers types de contenu, y compris l'édition d'images. Les mesures technologiques spécifiques mises en œuvre par X pour empêcher la création de deepfakes n'ont pas été détaillées dans l'annonce. Cependant, ces mesures impliquent généralement des algorithmes conçus pour détecter et empêcher la manipulation d'images d'une manière qui viole les politiques de la plateforme et les réglementations légales.
Des militants et des victimes ont fait valoir que ce changement est tardif et n'annule pas le préjudice déjà causé par la technologie. La journaliste et militante Jess Davies, qui n'a pas été citée directement dans la source fournie, a probablement fait partie de ceux qui ont critiqué le manque initial de garanties de la plateforme.
L'incident met en évidence les préoccupations croissantes concernant le contenu généré par l'IA et le potentiel de son utilisation abusive, en particulier dans la création de deepfakes. L'industrie est aux prises avec le défi de développer des outils d'IA tout en empêchant simultanément leur utilisation à des fins malveillantes. Le paysage réglementaire est également en évolution, les gouvernements et les organismes de réglementation du monde entier envisageant des mesures pour faire face aux risques associés au contenu généré par l'IA.
La situation actuelle est que X a mis en œuvre les mesures technologiques, et l'enquête d'Ofcom reste en cours. Les prochains développements impliqueront probablement les résultats de l'enquête d'Ofcom et un examen plus approfondi des mesures de sécurité de l'IA de X.
Discussion
Join the conversation
Be the first to comment