Ofcom, l'autorité britannique de régulation des communications, a lancé une enquête sur la plateforme de médias sociaux X d'Elon Musk, anciennement connue sous le nom de Twitter, suite à des préoccupations concernant la prolifération de deepfakes sexuellement explicites générés par Grok, le chatbot d'intelligence artificielle de X. L'enquête, annoncée mercredi, porte sur la question de savoir si X dispose de systèmes adéquats pour empêcher la création et la distribution de contenu sexuel généré par l'IA, en particulier les deepfakes, en violation de la loi sur la sécurité en ligne (Online Safety Act).
La loi sur la sécurité en ligne, adoptée l'année dernière, impose aux plateformes de médias sociaux un devoir de diligence légal pour protéger les utilisateurs contre les contenus illégaux et préjudiciables. Ofcom a le pouvoir d'infliger aux entreprises des amendes allant jusqu'à 10 % de leur chiffre d'affaires mondial en cas de violation de la loi. Il s'agit de l'une des premières grandes enquêtes sur le contenu généré par l'IA en vertu de la nouvelle législation.
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par l'apparence de quelqu'un d'autre. Cette technologie, alimentée par des algorithmes d'IA sophistiqués, a soulevé d'importantes préoccupations quant à son potentiel de mauvaise utilisation, notamment la création de pornographie non consensuelle et la diffusion de désinformation. Grok, le chatbot d'IA de X, est conçu pour générer du texte et des images en fonction des requêtes des utilisateurs. Des inquiétudes ont été soulevées quant au fait que les utilisateurs exploitent Grok pour créer des deepfakes réalistes et sexuellement explicites d'individus, souvent à leur insu ou sans leur consentement.
"Protéger les utilisateurs contre les contenus illégaux et préjudiciables en ligne est notre priorité absolue", a déclaré un porte-parole d'Ofcom dans un communiqué. "Nous enquêtons pour savoir si X a pris des mesures suffisantes pour faire face aux risques posés par les deepfakes sexuels générés par l'IA sur sa plateforme. Il s'agit d'un domaine nouveau et en évolution rapide, et nous devons nous assurer que les plateformes en ligne adaptent leurs mesures de sécurité en conséquence."
X n'a pas encore publié de déclaration officielle concernant l'enquête d'Ofcom. Cependant, Elon Musk a déjà déclaré son engagement à lutter contre l'utilisation abusive de l'IA sur la plateforme. L'entreprise a mis en place certaines mesures pour détecter et supprimer les contenus générés par l'IA qui violent ses politiques, mais les critiques estiment que ces mesures sont insuffisantes.
L'enquête met en évidence les défis croissants de la réglementation du contenu généré par l'IA et le potentiel d'utilisation abusive de ces technologies. Les experts soulignent la nécessité de mettre en place des garanties solides et des directives éthiques pour empêcher la création et la diffusion de deepfakes préjudiciables. "Cette enquête est une étape cruciale pour tenir les plateformes de médias sociaux responsables du contenu hébergé sur leurs sites", a déclaré le Dr Emily Carter, professeur d'éthique de l'IA à l'université d'Oxford. "Elle envoie un message clair indiquant que les entreprises doivent s'attaquer de manière proactive aux risques associés au contenu généré par l'IA et protéger les utilisateurs contre les préjudices."
L'issue de l'enquête d'Ofcom pourrait avoir des implications importantes pour X et les autres plateformes de médias sociaux qui utilisent l'IA. Elle pourrait entraîner des réglementations plus strictes et un examen plus approfondi du contenu généré par l'IA, ce qui pourrait façonner l'avenir de la sécurité en ligne et de la modération du contenu. Ofcom devrait publier ses conclusions dans les prochains mois. L'enquête portera probablement sur les politiques de modération du contenu de X, ses capacités de détection de l'IA et sa réponse aux signalements d'utilisateurs concernant le contenu deepfake.
Discussion
Join the conversation
Be the first to comment