Des représentants du gouvernement exigent que la plateforme de médias sociaux X d'Elon Musk s'attaque à la prolifération de ce qu'ils décrivent comme des « deepfakes épouvantables » générés par Grok, le chatbot d'intelligence artificielle de la plateforme. Les préoccupations portent sur le potentiel de ces images et vidéos générées par l'IA à diffuser de la désinformation et à causer des dommages à la réputation, en particulier à l'approche des prochaines élections.
La demande, émise hier soir par un groupe bipartite de sénateurs, appelle X à mettre en œuvre des mesures de protection plus strictes contre la création et la diffusion de deepfakes utilisant Grok. Plus précisément, les sénateurs exhortent X à renforcer ses politiques de modération de contenu, à améliorer ses capacités de détection des deepfakes et à fournir aux utilisateurs des mécanismes plus clairs pour signaler les cas suspects de désinformation générée par l'IA.
« Les progrès rapides de la technologie de l'IA présentent à la fois des opportunités et des défis », a déclaré la sénatrice Sarah Chen, démocrate de Californie, dans un communiqué de presse. « Bien que Grok ait le potentiel d'être un outil précieux, son utilisation abusive pour créer un contenu convaincant mais fabriqué est profondément troublante. X a la responsabilité d'empêcher que sa plateforme ne soit militarisée de cette manière. »
Les deepfakes, techniquement appelés médias synthétiques, sont créés à l'aide d'algorithmes d'IA sophistiqués, souvent basés sur des techniques d'apprentissage profond comme les réseaux antagonistes génératifs (GAN). Les GAN impliquent deux réseaux neuronaux, un générateur et un discriminateur, qui fonctionnent en tandem. Le générateur crée du contenu synthétique, tandis que le discriminateur tente de distinguer le contenu réel du contenu faux. Grâce à ce processus itératif, le générateur devient de plus en plus apte à produire des contrefaçons réalistes. La crainte est que ces contrefaçons puissent être utilisées pour se faire passer pour des individus, diffuser de faux récits et manipuler l'opinion publique.
X a présenté Grok à ses abonnés premium fin 2023 en tant que fonctionnalité intégrée directement à la plateforme. Grok est conçu pour répondre aux questions dans un style conversationnel et fournir des informations en temps réel. Bien que X ait mis en place des politiques interdisant la création et la distribution de contenu préjudiciable, les critiques soutiennent que ces politiques sont insuffisantes pour relever les défis uniques posés par les deepfakes générés par l'IA. La plateforme s'appuie actuellement sur une combinaison de systèmes de détection automatisés et de signalements d'utilisateurs pour identifier et supprimer le contenu qui enfreint les règles.
Les analystes du secteur suggèrent que la dépendance de X aux signalements des utilisateurs est une faiblesse importante, car les deepfakes peuvent se propager rapidement avant d'être signalés et supprimés. De plus, la technologie actuelle de détection des deepfakes n'est pas infaillible et les contrefaçons sophistiquées peuvent souvent échapper à la détection. « Le défi consiste à garder une longueur d'avance », explique le Dr David Lee, chercheur en IA à l'université de Stanford. « À mesure que les modèles d'IA deviennent plus puissants, la capacité de créer des deepfakes convaincants augmente également. Les plateformes doivent investir dans des technologies de détection de pointe et des stratégies de modération de contenu robustes. »
X n'a pas encore publié de réponse officielle aux demandes du gouvernement. Cependant, dans une récente interview, la PDG Linda Yaccarino a déclaré que l'entreprise s'engageait à lutter contre la désinformation et explorait activement de nouvelles façons de relever les défis posés par l'IA. « Nous prenons cette question très au sérieux », a déclaré Yaccarino. « Nous travaillons au développement et au déploiement de technologies avancées pour détecter et supprimer les deepfakes de notre plateforme. »
L'intervention du gouvernement met en évidence la surveillance réglementaire croissante de l'IA et de son impact potentiel sur la société. Plusieurs pays envisagent actuellement une législation pour réglementer le développement et le déploiement des technologies d'IA, en mettant particulièrement l'accent sur la lutte contre les risques associés aux deepfakes et autres formes de désinformation générée par l'IA. L'Union européenne, par exemple, finalise son AI Act, qui comprend des dispositions pour réglementer l'utilisation de l'IA dans les applications à haut risque, telles que la reconnaissance faciale et la modération de contenu.
Les prochaines étapes impliqueront probablement de nouvelles discussions entre les représentants du gouvernement et les représentants de X afin d'élaborer un plan concret pour répondre aux préoccupations soulevées. L'issue de ces discussions pourrait avoir des implications importantes pour l'avenir de la réglementation de l'IA et la responsabilité des plateformes de médias sociaux dans la lutte contre la désinformation.
Discussion
Join the conversation
Be the first to comment