Le 10 Downing Street a exprimé son approbation des informations selon lesquelles X, anciennement Twitter, prend des mesures pour lutter contre le problème des deepfakes générés à l'aide de Grok, son modèle d'intelligence artificielle. Cette initiative intervient dans un contexte d'inquiétudes croissantes quant à l'utilisation abusive potentielle de contenus générés par l'IA pour diffuser de la désinformation et manipuler l'opinion publique.
Un porte-parole du Premier ministre a déclaré que le gouvernement saluait tous les efforts déployés par les entreprises technologiques pour atténuer les risques associés à l'IA, en particulier dans le contexte des deepfakes. "Nous avons clairement indiqué la nécessité d'un développement et d'un déploiement responsables de l'IA", a déclaré le porte-parole. "Il est encourageant de voir des plateformes comme X prendre des mesures proactives pour lutter contre le potentiel d'utilisation abusive."
Les deepfakes, qui sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance d'une autre personne, sont créés à l'aide de techniques d'IA sophistiquées, impliquant souvent des réseaux antagonistes génératifs (GAN). Les GAN sont constitués de deux réseaux neuronaux, un générateur et un discriminateur, qui fonctionnent en tandem. Le générateur crée du contenu synthétique, tandis que le discriminateur tente de distinguer le contenu réel du contenu faux. Grâce à ce processus itératif, le générateur apprend à produire des deepfakes de plus en plus réalistes.
Grok de X, un modèle d'IA conçu pour le traitement et la génération du langage naturel, pourrait potentiellement être utilisé pour créer des deepfakes textuels réalistes ou pour générer des scripts pour des deepfakes vidéo. Les mesures spécifiques que X prendrait pour lutter contre les deepfakes liés à Grok n'ont pas été entièrement divulguées, mais les analystes du secteur estiment qu'elles pourraient inclure la mise en œuvre de politiques de modération du contenu, le développement d'outils de détection et le marquage en filigrane du contenu généré par l'IA.
L'essor des deepfakes pose un défi important à l'écosystème de l'information. Les experts avertissent que ces médias manipulés peuvent être utilisés pour nuire à la réputation, semer la discorde et même influencer les élections. L'accessibilité et la sophistication croissantes de la technologie rendent difficile la distinction entre le contenu authentique et le contenu fabriqué, érodant ainsi la confiance dans les médias et les institutions.
D'autres plateformes de médias sociaux et entreprises technologiques sont également aux prises avec le problème des deepfakes. Beaucoup investissent dans des outils de détection basés sur l'IA qui peuvent identifier les médias manipulés en se basant sur des incohérences ou des artefacts subtils. Certains étudient également l'utilisation de la technologie blockchain pour vérifier l'authenticité du contenu.
Le gouvernement britannique a activement envisagé des cadres réglementaires pour l'IA, y compris des mesures pour lutter contre les risques associés aux deepfakes. L'Online Safety Act, qui est récemment entrée en vigueur, comprend des dispositions visant à lutter contre les contenus en ligne préjudiciables, y compris les médias manipulés.
L'état actuel des efforts de X pour lutter contre les deepfakes de Grok reste incertain. D'autres détails devraient être publiés par l'entreprise dans les semaines à venir. Le porte-parole du gouvernement a réaffirmé l'importance d'une collaboration continue entre le gouvernement, l'industrie et la société civile pour relever les défis posés par l'IA et garantir son développement et son utilisation responsables.
Discussion
Join the conversation
Be the first to comment