Ofcom, le régulateur britannique des communications, a lancé une enquête sur la plateforme de médias sociaux X d'Elon Musk, anciennement connue sous le nom de Twitter, suite à des préoccupations concernant la création et la diffusion potentielles de deepfakes sexuels générés par Grok, le chatbot d'intelligence artificielle de X. L'enquête, annoncée mercredi, porte sur la question de savoir si X a mis en place des garanties adéquates pour empêcher l'utilisation de l'outil d'IA pour produire et distribuer du contenu illicite, en particulier des images intimes non consensuelles.
L'enquête examinera la conformité de X à la loi sur la sécurité en ligne (Online Safety Act), qui impose aux plateformes un devoir de diligence légal pour protéger les utilisateurs contre les contenus et activités illégaux. Ofcom a le pouvoir d'infliger aux entreprises des amendes allant jusqu'à 10 % de leur chiffre d'affaires mondial en cas de violation de la loi. « Protéger les utilisateurs contre les contenus illégaux en ligne est notre priorité absolue », a déclaré un porte-parole d'Ofcom. « Nous enquêtons sur X afin d'évaluer si des mesures suffisantes ont été prises pour empêcher l'utilisation de Grok AI pour créer et partager des deepfakes illégaux. »
Les deepfakes, un mot-valise combinant « deep learning » (apprentissage profond) et « fake » (faux), sont des médias synthétiques dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par la ressemblance d'une autre personne. Cette technologie, alimentée par des algorithmes d'IA sophistiqués, a soulevé d'importantes préoccupations concernant la désinformation, les violations de la vie privée et le potentiel d'utilisation malveillante, notamment la création de pornographie non consensuelle. Grok, le chatbot d'IA de X, est un grand modèle linguistique (LLM) entraîné sur un ensemble massif de données de texte et de code, lui permettant de générer du texte de type humain, de traduire des langues et de répondre à des questions. La crainte est que les utilisateurs puissent inciter Grok à créer des images sexuellement explicites d'individus sans leur consentement.
L'enquête met en évidence les défis croissants de la réglementation du contenu généré par l'IA et les responsabilités des plateformes qui déploient ces technologies. Les experts soutiennent que, si l'IA offre de nombreux avantages, elle présente également de nouvelles voies d'abus. « Les progrès rapides des technologies d'IA comme Grok nécessitent des mesures proactives pour atténuer les dommages potentiels », a déclaré le Dr Anya Sharma, professeur d'éthique de l'IA à l'université de Cambridge. « Les plateformes doivent mettre en œuvre des garanties solides pour empêcher la création et la diffusion de deepfakes, en particulier ceux qui sont sexuellement explicites et non consensuels. »
X n'a pas encore publié de déclaration officielle concernant l'enquête d'Ofcom. Cependant, Musk a déjà déclaré son engagement à lutter contre l'utilisation abusive de l'IA sur la plateforme. L'issue de l'enquête pourrait avoir des implications importantes pour X et d'autres entreprises de médias sociaux qui intègrent l'IA dans leurs services. Les conclusions d'Ofcom influenceront probablement le développement de cadres réglementaires pour le contenu généré par l'IA, tant au Royaume-Uni qu'à l'échelle internationale. L'enquête est en cours et Ofcom devrait fournir des mises à jour au fur et à mesure de son avancement.
Discussion
Join the conversation
Be the first to comment