Downing Street a reconnu avoir pris connaissance des informations selon lesquelles X, anciennement Twitter, prend des mesures pour lutter contre le problème des deepfakes générés à l'aide de Grok, son modèle d'intelligence artificielle. Cette initiative intervient dans un contexte d'inquiétudes croissantes quant au potentiel d'utilisation abusive des contenus générés par l'IA pour diffuser de la désinformation et influencer l'opinion publique.
Un porte-parole du cabinet du Premier ministre a déclaré que le gouvernement saluait tous les efforts déployés par les plateformes de médias sociaux pour atténuer les risques associés aux deepfakes. "Nous avons clairement indiqué que les entreprises technologiques doivent assumer la responsabilité du contenu hébergé sur leurs plateformes, en particulier lorsqu'il s'agit de matériel généré par l'IA qui pourrait être utilisé pour tromper ou induire en erreur", a déclaré le porte-parole.
Les deepfakes sont des médias synthétiques dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par l'apparence de quelqu'un d'autre. Ceci est généralement réalisé à l'aide de techniques sophistiquées d'apprentissage automatique, en particulier des algorithmes d'apprentissage profond, d'où leur nom. Grok, le modèle d'IA de X, est un grand modèle linguistique (LLM) similaire à la série GPT d'OpenAI ou à Gemini de Google. Les LLM sont entraînés sur de vastes quantités de données textuelles, ce qui leur permet de générer du texte de type humain, de traduire des langues et de créer divers types de contenu créatif, y compris le texte sous-jacent des applications de deepfake.
Les mesures spécifiques que X mettrait en œuvre pour lutter contre les deepfakes générés par Grok n'ont pas été entièrement divulguées. Cependant, les analystes du secteur estiment qu'elles pourraient inclure des algorithmes de détection de contenu améliorés, des processus de vérification des utilisateurs plus stricts et des politiques d'étiquetage plus claires pour le contenu généré par l'IA. Les algorithmes de détection de contenu analysent les médias à la recherche de signes révélateurs de manipulation, tels que des incohérences dans l'éclairage, des mouvements faciaux non naturels ou des artefacts introduits lors du processus de création du deepfake.
L'essor d'outils d'IA accessibles comme Grok a abaissé la barrière à l'entrée pour la création de deepfakes, ce qui permet aux acteurs malveillants de produire et de diffuser plus facilement des contenus convaincants mais fabriqués. Cela pose un défi important à l'écosystème de l'information, en sapant potentiellement la confiance dans les sources d'information et les institutions légitimes.
Le gouvernement britannique a activement envisagé des cadres réglementaires pour l'IA, y compris des mesures visant à atténuer les risques associés aux deepfakes. L'Online Safety Act, qui est récemment entrée en vigueur, impose aux plateformes de médias sociaux un devoir de diligence pour protéger les utilisateurs contre les contenus illégaux et préjudiciables, ce qui pourrait potentiellement être interprété comme incluant certains types de deepfakes.
X n'a pas encore publié de déclaration officielle détaillant ses plans. L'entreprise devrait fournir de plus amples informations sur son approche de la lutte contre les deepfakes liés à Grok dans les semaines à venir. L'efficacité des mesures prises par X sera suivie de près par les décideurs politiques, les régulateurs et le public, alors que le débat sur le développement et le déploiement responsables de l'IA se poursuit.
Discussion
Join the conversation
Be the first to comment