Les autorités gouvernementales exigent que la plateforme de médias sociaux X, propriété d'Elon Musk, s'attaque à la prolifération de ce qu'elles décrivent comme des "deepfakes épouvantables" générés par Grok, le chatbot d'intelligence artificielle de la plateforme. Cette demande fait suite à une recrudescence de contenus audio et vidéo manipulés circulant sur X, ce qui soulève des inquiétudes quant à la désinformation et aux préjudices potentiels causés aux individus et aux institutions.
Les préoccupations du gouvernement se concentrent sur la capacité de Grok à générer des deepfakes réalistes et convaincants, qui sont des médias de synthèse dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par l'apparence de quelqu'un d'autre. Ces deepfakes, ont déclaré les responsables, sont utilisés pour diffuser de faux récits, usurper l'identité de personnalités publiques et potentiellement influencer l'opinion publique. "La sophistication de ces deepfakes générés par Grok est profondément troublante", a déclaré un porte-parole du Département des normes technologiques dans un communiqué. "Nous exigeons que X prenne des mesures immédiates pour atténuer les risques qu'ils représentent pour le public."
Grok, lancé par la société d'IA xAI de Musk, est un grand modèle linguistique (LLM) conçu pour répondre aux questions et générer du texte dans un style conversationnel. Les LLM sont entraînés sur des ensembles de données massifs de texte et de code, ce qui leur permet de comprendre et de générer un langage de type humain. Bien que xAI ait vanté le potentiel de Grok pour l'éducation et le divertissement, les critiques ont mis en garde contre son potentiel de mauvaise utilisation, en particulier dans la création de désinformation.
La politique actuelle de X interdit la création et la distribution de deepfakes destinés à tromper ou à induire en erreur, mais les autorités affirment que les mécanismes d'application de la plateforme sont inadéquats. Elles soulignent la propagation rapide de plusieurs deepfakes très médiatisés sur X au cours des dernières semaines, dont un qui dépeignait faussement un homme politique important faisant des remarques incendiaires. "Leurs efforts de modération actuels sont clairement insuffisants pour faire face à l'ampleur et à la sophistication de ce problème", a ajouté le porte-parole du Département des normes technologiques.
La demande du gouvernement exerce une pression sur X pour qu'elle améliore ses capacités de détection et de suppression des deepfakes. Les solutions possibles incluent la mise en œuvre d'outils de détection plus sophistiqués basés sur l'IA, l'augmentation de la modération humaine et la collaboration avec des organisations indépendantes de vérification des faits. La situation met également en évidence les défis plus larges de la réglementation du contenu généré par l'IA et de la conciliation de la liberté d'expression avec la nécessité de se protéger contre la désinformation.
Les analystes du secteur suggèrent que cet incident pourrait entraîner un examen plus approfondi des entreprises d'IA et des plateformes de médias sociaux, ce qui pourrait se traduire par des réglementations plus strictes et une plus grande responsabilité quant au contenu partagé sur leurs plateformes. "C'est un signal d'alarme pour l'ensemble du secteur", a déclaré le Dr Anya Sharma, chercheuse de premier plan en éthique de l'IA à l'Institute for Technology Policy. "Nous devons développer des garanties solides pour empêcher l'utilisation abusive des technologies d'IA et veiller à ce qu'elles soient utilisées de manière responsable."
X a reconnu les préoccupations du gouvernement et a déclaré qu'elle "travaille activement" à améliorer ses capacités de détection et de suppression des deepfakes. L'entreprise n'a pas encore annoncé les mesures spécifiques qu'elle prendra, mais les autorités ont indiqué qu'elles s'attendent à un plan d'action détaillé dans les deux prochaines semaines. L'issue de cette situation pourrait avoir des implications importantes pour l'avenir de la réglementation de l'IA et la lutte contre la désinformation en ligne.
Discussion
Join the conversation
Be the first to comment