L'outil d'IA Grok d'Elon Musk ne pourra plus modifier les photos de personnes réelles pour les représenter dans des tenues suggestives dans les juridictions où de telles modifications sont illégales. L'annonce, faite sur X, la plateforme de médias sociaux appartenant à Musk, fait suite à une inquiétude généralisée concernant le potentiel de deepfakes sexuels générés par l'IA.
X a déclaré avoir "mis en œuvre des mesures technologiques pour empêcher le compte Grok d'autoriser la modification d'images de personnes réelles dans des tenues suggestives". Cette décision intervient après les critiques et l'examen réglementaire concernant l'utilisation potentiellement abusive de l'outil d'IA.
Le gouvernement britannique a réagi à ce changement, le qualifiant de "justification" de son appel à X pour qu'il contrôle Grok. L'Ofcom, l'autorité britannique de régulation des communications, a qualifié cette évolution de "bienvenue", mais a souligné que son enquête visant à déterminer si X a violé les lois britanniques "reste en cours". L'Ofcom a déclaré : "Nous travaillons jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier."
La secrétaire à la Technologie, Liz Kendall, a également reconnu ce changement, mais a déclaré qu'elle "s'attendait à ce que les faits soient pleinement et solidement établis par l'enquête en cours de l'Ofcom".
Grok, lancé en 2023, est un outil d'IA intégré à la plateforme X. Ses capacités comprennent la retouche d'images, ce qui soulève des inquiétudes quant à son utilisation potentiellement abusive, notamment pour la création de deepfakes non consensuels. Les mesures technologiques mises en œuvre visent à empêcher l'IA de générer des images représentant des personnes réelles dans des contextes sexuellement explicites ou suggestifs sans leur consentement.
Des militants et des victimes ont fait valoir que ce changement est tardif et ne répare pas le préjudice déjà causé. Jess Davies, journaliste et militante, s'est exprimée avec véhémence sur la nécessité de mettre en place des garanties plus strictes contre les abus générés par l'IA.
Les mesures techniques spécifiques mises en œuvre par X pour empêcher Grok de créer de telles images n'ont pas été détaillées dans l'annonce. Toutefois, ces mesures impliquent généralement une combinaison de filtrage de contenu, d'algorithmes de reconnaissance d'images et de restrictions sur les types d'invites que l'IA peut traiter. Ces filtres sont conçus pour détecter et bloquer les demandes susceptibles de conduire à la création de contenus inappropriés ou nuisibles.
L'incident met en évidence les défis croissants et les considérations éthiques liés aux outils basés sur l'IA, en particulier dans le domaine de la manipulation d'images et de la technologie des deepfakes. À mesure que la technologie de l'IA progresse, les développeurs et les plateformes sont confrontés à une pression croissante pour mettre en œuvre des garanties qui empêchent les abus et protègent les individus contre les préjudices. L'enquête en cours de l'Ofcom souligne le potentiel d'intervention réglementaire et la nécessité pour les plateformes de se conformer aux lois et réglementations locales concernant le contenu généré par l'IA.
Discussion
Join the conversation
Be the first to comment