Ofcom, l'autorité britannique de régulation des communications, a lancé une enquête sur la plateforme de médias sociaux X d'Elon Musk, anciennement connue sous le nom de Twitter, suite à des préoccupations concernant la prolifération de deepfakes sexuellement explicites générés par Grok, le chatbot d'intelligence artificielle de X. L'enquête, annoncée mercredi, porte sur la question de savoir si X dispose de systèmes adéquats pour empêcher la création et la diffusion de contenu sexuel généré par l'IA, en particulier les deepfakes, en violation de la loi sur la sécurité en ligne (Online Safety Act).
La loi sur la sécurité en ligne, entrée en vigueur au début de l'année, impose aux plateformes de médias sociaux un devoir de diligence légal pour protéger les utilisateurs contre les contenus illégaux et préjudiciables. Ofcom a le pouvoir d'infliger aux entreprises des amendes allant jusqu'à 10 % de leur chiffre d'affaires mondial en cas de violation de la loi. Il s'agit de l'une des premières grandes enquêtes menées en vertu de la nouvelle législation, qui porte spécifiquement sur le contenu généré par l'IA.
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par l'image d'une autre personne. Cette technologie utilise des algorithmes d'intelligence artificielle sophistiqués, en particulier des réseaux neuronaux profonds, pour échanger de manière convaincante des visages ou manipuler du contenu audio et vidéo. Bien que les deepfakes aient des utilisations légitimes, par exemple dans la production cinématographique et l'expression artistique, ils présentent également des risques importants, notamment la création de pornographie non consensuelle, la diffusion de désinformation et le risque d'atteinte à la réputation.
"Protéger les utilisateurs contre les contenus illégaux et préjudiciables en ligne est notre priorité absolue", a déclaré un porte-parole d'Ofcom. "Nous enquêtons sur X afin d'évaluer si l'entreprise respecte ses obligations en vertu de la loi sur la sécurité en ligne pour empêcher la diffusion de deepfakes sexuels générés par l'IA. Il s'agit d'un domaine nouveau et en évolution rapide, et nous devons nous assurer que les plateformes prennent les mesures appropriées pour protéger leurs utilisateurs."
X n'a pas encore publié de déclaration officielle concernant l'enquête. Cependant, Elon Musk a déjà déclaré son engagement à lutter contre l'utilisation abusive de l'IA sur la plateforme. Grok, le chatbot d'IA de X, a été lancé à la fin de l'année dernière et est conçu pour répondre aux questions de manière conversationnelle et parfois humoristique. Toutefois, des inquiétudes ont été soulevées quant à son potentiel d'exploitation à des fins malveillantes, notamment la génération de contenu préjudiciable.
Les experts en éthique de l'IA et en sécurité en ligne ont salué l'enquête d'Ofcom. "Il s'agit d'une étape cruciale pour tenir les plateformes de médias sociaux responsables du contenu qui est généré et partagé sur leurs sites", a déclaré le Dr Emily Carter, chercheuse à l'Oxford Internet Institute, spécialisée dans la gouvernance de l'IA. "Les progrès rapides de la technologie de l'IA nécessitent une réglementation proactive pour atténuer les risques d'utilisation abusive, en particulier dans le contexte des deepfakes et des images non consensuelles."
L'enquête impliquera probablement une évaluation approfondie des politiques de modération du contenu de X, de ses capacités de détection de l'IA et de ses procédures de réponse aux signalements de contenu préjudiciable. Ofcom examinera également les mesures mises en place par X pour empêcher la création et la diffusion de deepfakes par Grok. L'issue de l'enquête pourrait avoir des implications importantes pour l'avenir de la réglementation de l'IA et les responsabilités des plateformes de médias sociaux à l'ère des médias synthétiques. Ofcom devrait fournir une mise à jour de ses conclusions dans les prochains mois.
Discussion
Join the conversation
Be the first to comment