Le 10 Downing Street a exprimé son approbation suite aux informations selon lesquelles X, anciennement Twitter, prend des mesures pour lutter contre le problème des deepfakes générés à l'aide de son modèle d'IA Grok. Cette initiative intervient dans un contexte d'inquiétudes croissantes quant au potentiel d'utilisation abusive du contenu généré par l'IA pour diffuser de la désinformation et de la propagande.
Un porte-parole du Premier ministre a déclaré que le gouvernement salue tous les efforts visant à atténuer les risques associés aux deepfakes, soulignant l'importance d'un développement et d'un déploiement responsables de l'IA. "Nous avons clairement indiqué que les entreprises technologiques doivent prendre des mesures proactives pour empêcher l'utilisation malveillante de leurs plateformes et technologies", a déclaré le porte-parole. "Nous sommes encouragés par les informations selon lesquelles X prend cette question au sérieux."
Les deepfakes, un mot-valise combinant "deep learning" (apprentissage profond) et "fake" (faux), sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par l'apparence de quelqu'un d'autre. Ceci est généralement réalisé à l'aide de puissantes techniques d'IA, telles que les réseaux neuronaux profonds, pour analyser et reproduire les expressions faciales, les schémas de parole et les mouvements corporels. Les vidéos qui en résultent peuvent être très réalistes et difficiles à distinguer des images authentiques, ce qui soulève des inquiétudes quant à leur utilisation potentielle dans les campagnes de désinformation, la manipulation politique et le harcèlement en ligne.
Grok, le modèle d'IA de X, est un grand modèle de langage (LLM) similaire à la série GPT d'OpenAI et à Gemini de Google. Les LLM sont entraînés sur des ensembles de données massifs de texte et de code, ce qui leur permet de générer du texte de qualité humaine, de traduire des langues et de répondre à des questions de manière exhaustive. Bien que les LLM aient de nombreuses applications bénéfiques, ils peuvent également être utilisés pour créer des deepfakes convaincants, exacerbant ainsi les risques associés à cette technologie.
Les mesures spécifiques que X prendrait pour lutter contre les deepfakes générés par Grok n'ont pas été entièrement divulguées. Cependant, les experts du secteur estiment qu'elles pourraient inclure la mise en œuvre de politiques de modération du contenu pour détecter et supprimer les deepfakes, le développement d'outils techniques pour identifier le contenu généré par l'IA et l'éducation des utilisateurs sur les risques des deepfakes.
"Le défi ne consiste pas seulement à détecter les deepfakes, mais aussi à les attribuer à leur source", a déclaré le Dr Emily Carter, une chercheuse de premier plan en IA à l'Université d'Oxford. "Si X peut identifier les deepfakes générés par Grok et les retracer jusqu'aux utilisateurs qui les ont créés, ce serait un grand pas en avant."
L'essor des deepfakes a suscité des appels à une plus grande réglementation des technologies d'IA. Les gouvernements du monde entier sont aux prises avec la manière de concilier les avantages de l'IA avec la nécessité de se protéger contre ses dommages potentiels. L'Union européenne travaille actuellement sur l'AI Act, une législation complète qui établirait des règles pour le développement et le déploiement des systèmes d'IA, y compris ceux utilisés pour créer des deepfakes.
X n'a pas encore publié de déclaration officielle concernant ses plans pour lutter contre les deepfakes de Grok. Cependant, la société devrait fournir plus de détails dans les semaines à venir. L'efficacité des efforts de X sera suivie de près par les décideurs politiques, les chercheurs et le public, car la lutte contre les deepfakes reste un défi essentiel à l'ère de l'IA.
Discussion
Join the conversation
Be the first to comment