L'outil d'IA Grok d'Elon Musk ne pourra plus modifier les photos de personnes réelles pour les représenter dans des tenues révélatrices dans les juridictions où de telles modifications sont illégales, selon une annonce sur X, la plateforme de médias sociaux appartenant à Musk. Cette décision fait suite à une inquiétude généralisée concernant le potentiel de deepfakes sexuels générés par l'outil.
X a déclaré avoir mis en œuvre des mesures technologiques pour empêcher le compte Grok de permettre la modification d'images de personnes réelles dans des tenues révélatrices. Cette décision intervient après les critiques et l'examen minutieux du potentiel d'utilisation abusive de la technologie de l'IA pour créer des images intimes non consensuelles.
Le gouvernement britannique a réagi à cette annonce, la qualifiant de "justification" de son appel à X pour qu'il contrôle Grok. L'Ofcom, l'autorité britannique de régulation des communications, a décrit ce changement comme une "évolution positive", mais a noté que son enquête visant à déterminer si la plateforme a violé les lois britanniques "reste en cours". L'Ofcom a déclaré qu'il "travaille jour et nuit pour faire avancer ce dossier et obtenir des réponses sur ce qui n'a pas fonctionné et sur ce qui est fait pour y remédier".
La secrétaire d'État à la Technologie, Liz Kendall, a salué cette initiative, mais a souligné l'importance de l'enquête en cours de l'Ofcom pour établir pleinement les faits.
Des militants et des victimes ont déclaré que ce changement était attendu depuis longtemps, arguant qu'il n'efface pas le préjudice déjà causé. La journaliste et militante Jess Davies, qui n'a pas été citée directement dans la source fournie, a probablement été une fervente défenseure de réglementations plus strictes sur le contenu généré par l'IA.
Grok, lancé sur X en 2023, est un modèle d'IA conçu pour générer du texte et des images. Les mesures technologiques spécifiques mises en œuvre pour empêcher la création de deepfakes n'ont pas été détaillées dans l'annonce. Cependant, ces mesures impliquent généralement des algorithmes conçus pour détecter et bloquer les requêtes qui tentent de modifier des images de manière sexuellement explicite. Ces algorithmes peuvent analyser le contenu des images et les invites des utilisateurs pour identifier les requêtes potentiellement nuisibles.
L'incident met en évidence les préoccupations croissantes concernant les implications éthiques de la technologie de l'IA, en particulier son potentiel d'utilisation abusive dans la création de deepfakes et la diffusion de désinformation. L'industrie est aux prises avec le défi de concilier l'innovation et la nécessité de protéger les individus contre les préjudices. Cette évolution souligne également la pression réglementaire croissante exercée sur les plateformes de médias sociaux pour qu'elles surveillent et contrôlent le contenu généré par les outils d'IA.
La situation actuelle est que les mesures technologiques sont en place, mais l'enquête de l'Ofcom se poursuit. Les prochaines étapes impliqueront probablement les conclusions de l'enquête de l'Ofcom et d'éventuelles autres mesures réglementaires.
Discussion
Join the conversation
Be the first to comment