Le 10 Downing Street a exprimé son approbation face aux informations indiquant que X, anciennement Twitter, prend des mesures pour lutter contre le problème des deepfakes générés par Grok, son modèle d'intelligence artificielle. Cette initiative intervient dans un contexte d'inquiétudes croissantes quant au potentiel d'utilisation abusive de contenus générés par l'IA pour diffuser de la désinformation et de la propagande.
Un porte-parole du Premier ministre a déclaré que le gouvernement saluait tous les efforts visant à atténuer les risques associés à la technologie des deepfakes. "Nous avons clairement indiqué que les entreprises technologiques doivent assumer la responsabilité du contenu hébergé sur leurs plateformes, en particulier lorsqu'il s'agit de matériel généré par l'IA", a déclaré le porte-parole. "Nous sommes encouragés par les informations selon lesquelles X prend cette question au sérieux."
Les deepfakes sont des médias synthétiques dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par l'apparence de quelqu'un d'autre. Ceci est généralement réalisé à l'aide de techniques sophistiquées d'apprentissage automatique, en particulier des algorithmes d'apprentissage profond, d'où le nom de "deepfake". Grok, le modèle d'IA de X, est capable de générer du texte et des images, ce qui fait craindre qu'il ne soit utilisé pour créer des deepfakes réalistes à grande échelle.
L'impact de la technologie des deepfakes sur l'industrie est important. Les experts avertissent que les deepfakes peuvent éroder la confiance dans les médias, manipuler l'opinion publique et même être utilisés à des fins malveillantes telles que la fraude financière ou le sabotage politique. La prolifération d'outils d'IA accessibles a permis à des personnes ayant une expertise technique limitée de créer plus facilement des deepfakes convaincants, ce qui amplifie le risque de préjudice.
Bien que les détails des mesures spécifiques prises par X pour lutter contre les deepfakes générés par Grok restent limités, les informations suggèrent que l'entreprise étudie plusieurs options, notamment le marquage en filigrane du contenu généré par l'IA, la mise en œuvre de politiques de modération du contenu pour supprimer les deepfakes qui violent ses conditions d'utilisation, et le développement d'outils de détection pour identifier et signaler les médias synthétiques.
"Le défi ne consiste pas seulement à détecter les deepfakes, mais aussi à les attribuer à leur source", a déclaré le Dr Anya Sharma, chercheuse de premier plan en IA à l'Université d'Oxford. "Si X peut effectivement remonter les deepfakes jusqu'à Grok, ce serait un grand pas en avant en matière de responsabilité."
X n'a pas encore publié de déclaration officielle sur ses plans, mais des sources proches du dossier indiquent qu'une annonce est attendue dans les prochaines semaines. L'entreprise travaillerait en étroite collaboration avec les organismes de réglementation gouvernementaux et les partenaires de l'industrie pour élaborer une approche globale de la lutte contre la menace des deepfakes. L'efficacité des mesures prises par X sera suivie de près par les décideurs politiques et le public, alors que le débat sur la réglementation de l'IA continue de s'intensifier.
Discussion
Join the conversation
Be the first to comment