L'Ofcom, l'autorité britannique de régulation des communications, a lancé une enquête sur la plateforme de médias sociaux X d'Elon Musk, anciennement connue sous le nom de Twitter, suite à des préoccupations concernant la prolifération de deepfakes sexuellement explicites générés par Grok, le chatbot d'intelligence artificielle de X. L'enquête, annoncée mercredi, porte sur la question de savoir si X a suffisamment protégé ses utilisateurs, en particulier les enfants, contre les contenus préjudiciables générés par l'outil d'IA.
L'enquête examinera la conformité de X à la loi sur la sécurité en ligne (Online Safety Act), qui impose aux plateformes un devoir de diligence légal pour protéger les utilisateurs contre les contenus illégaux et préjudiciables. L'Ofcom évaluera spécifiquement l'efficacité des systèmes et des processus de X pour identifier et supprimer les deepfakes sexuels générés par l'IA, ainsi que ses mesures visant à empêcher les utilisateurs d'être exposés à de tels contenus.
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par la ressemblance d'une autre personne. Cette technologie, alimentée par des algorithmes d'IA sophistiqués, peut être utilisée pour créer un contenu réaliste mais entièrement fabriqué. Bien que les deepfakes aient diverses applications potentielles, notamment dans le divertissement et l'éducation, ils présentent également des risques importants, en particulier lorsqu'ils sont utilisés pour créer de la pornographie non consensuelle ou pour diffuser de la désinformation. La relative facilité avec laquelle des deepfakes convaincants peuvent désormais être créés et diffusés suscite de vives inquiétudes quant à leur potentiel de nuisance pour les individus et la société.
"La protection des enfants en ligne est non négociable, et la loi sur la sécurité en ligne nous donne les outils nécessaires pour demander des comptes aux plateformes", a déclaré un porte-parole de l'Ofcom dans un communiqué. "Nous enquêtons sur X pour nous assurer qu'ils prennent les mesures nécessaires pour empêcher la diffusion de contenus préjudiciables générés par l'IA."
X n'a pas encore publié de déclaration officielle concernant l'enquête de l'Ofcom. Cependant, Elon Musk a précédemment déclaré que X s'engageait à lutter contre la diffusion de contenus préjudiciables sur sa plateforme et qu'il travaillait activement à l'amélioration de ses systèmes de modération de contenu.
Cette enquête intervient dans un contexte de surveillance mondiale croissante des préjudices potentiels associés aux contenus générés par l'IA. Les gouvernements et les organismes de réglementation du monde entier s'efforcent de réglementer cette technologie en évolution rapide tout en favorisant l'innovation. L'Union européenne, par exemple, finalise sa loi sur l'IA (AI Act), qui établira un cadre juridique complet pour le développement et le déploiement de l'IA.
L'issue de l'enquête de l'Ofcom pourrait avoir des implications importantes pour X et les autres plateformes de médias sociaux qui intègrent de plus en plus l'IA dans leurs services. Si l'Ofcom constate que X n'a pas suffisamment protégé ses utilisateurs contre les contenus préjudiciables générés par l'IA, l'entreprise pourrait se voir infliger de lourdes amendes et être tenue de mettre en œuvre des mesures de modération de contenu plus strictes. L'enquête est en cours et l'Ofcom devrait fournir une mise à jour de ses conclusions dans les prochains mois.
Discussion
Join the conversation
Be the first to comment