L'Ofcom, l'autorité britannique de régulation des communications, a lancé une enquête sur la plateforme de médias sociaux X d'Elon Musk, anciennement connue sous le nom de Twitter, suite à des préoccupations concernant la prolifération de deepfakes sexuellement explicites générés par Grok, le chatbot d'intelligence artificielle de X. L'enquête, annoncée mercredi, porte sur la question de savoir si X dispose de systèmes adéquats pour empêcher la création et la diffusion de ces images générées par l'IA, en particulier celles représentant des personnes non consentantes.
L'enquête évaluera la conformité de X à la loi sur la sécurité en ligne (Online Safety Act), qui impose aux plateformes un devoir de diligence légal pour protéger les utilisateurs contre les contenus illégaux et préjudiciables. L'Ofcom examine spécifiquement si X a manqué à ses obligations concernant les contenus illégaux, notamment le matériel pédopornographique et la création et la diffusion de deepfakes sans consentement. L'accent est mis sur le potentiel d'utilisation abusive de Grok pour générer des images sexuelles réalistes mais fabriquées, ce qui soulève de sérieuses préoccupations en matière de vie privée, de réputation et de potentiel de harcèlement et de chantage.
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par l'apparence de quelqu'un d'autre. Cette technologie exploite des algorithmes d'IA sophistiqués, en particulier des réseaux neuronaux profonds, pour échanger de manière convaincante des visages ou manipuler du contenu audio et vidéo. Bien que les deepfakes aient des applications potentielles dans le divertissement et l'éducation, leur utilisation abusive pose des risques importants. La création d'images intimes non consensuelles, souvent appelées deepfakes de "revenge porn", est une préoccupation croissante, car ces images peuvent causer une détresse émotionnelle grave et nuire à la réputation des victimes.
"Protéger les gens contre les contenus illégaux en ligne est une priorité", a déclaré un porte-parole de l'Ofcom dans un communiqué. "Nous enquêtons sur X pour évaluer si elle a pris les mesures appropriées pour empêcher la création et la diffusion de deepfakes illégaux sur sa plateforme."
X n'a pas encore publié de déclaration officielle concernant l'enquête de l'Ofcom. Cependant, Elon Musk a déjà déclaré son engagement à lutter contre l'utilisation abusive de l'IA sur la plateforme. Les politiques de l'entreprise interdisent la création et la diffusion de contenus qui exploitent, maltraitent ou mettent en danger les enfants, et elle a mis en place des mesures pour détecter et supprimer ces contenus. Cependant, les critiques estiment que ces mesures sont insuffisantes pour faire face à la menace en évolution rapide des deepfakes générés par l'IA.
L'enquête intervient dans un contexte de surveillance mondiale croissante du potentiel d'utilisation abusive de l'IA. Les gouvernements et les organismes de réglementation du monde entier s'efforcent de trouver un équilibre entre les avantages de l'innovation en matière d'IA et la nécessité de protéger les individus contre les préjudices. L'Union européenne, par exemple, finalise sa loi sur l'IA (AI Act), qui imposera des réglementations strictes aux systèmes d'IA à haut risque, y compris ceux utilisés pour générer des deepfakes.
L'issue de l'enquête de l'Ofcom pourrait avoir des implications importantes pour X et d'autres plateformes de médias sociaux. S'il est constaté que X a violé la loi sur la sécurité en ligne, elle pourrait se voir infliger des amendes substantielles et être tenue de mettre en œuvre des garanties plus solides pour empêcher la création et la diffusion de contenus illégaux. L'enquête est en cours et l'Ofcom n'a pas fourni de calendrier pour son achèvement. Les conclusions influenceront probablement les futures approches réglementaires concernant les contenus générés par l'IA sur les plateformes de médias sociaux.
Discussion
Join the conversation
Be the first to comment