Les autorités ont exigé que la plateforme de médias sociaux X d'Elon Musk s'attaque à la prolifération des deepfakes générés par Grok, le chatbot d'intelligence artificielle de la plateforme. Le gouvernement a cité des cas de détournement "épouvantables", soulevant des inquiétudes quant à la désinformation et aux dommages potentiels.
Cette demande, émise mercredi par le Département de l'Intégrité Numérique (DIN), fait suite à une augmentation des signalements d'utilisateurs détaillant des vidéos et des images générées par l'IA, très réalistes, circulant sur X. Selon le DIN, ces deepfakes mettent souvent en scène des personnalités publiques et sont utilisés pour diffuser de faux récits ou des contenus malveillants.
"Nous sommes profondément préoccupés par le potentiel de Grok à être militarisé", a déclaré Anya Sharma, directrice du DIN, dans un communiqué de presse. "La technologie en elle-même n'est pas intrinsèquement nuisible, mais l'absence de garanties adéquates sur X permet son exploitation à des fins néfastes. Nous avons besoin d'une action immédiate pour atténuer cette menace."
Grok, un chatbot d'IA développé par xAI, la société de Musk, est intégré à l'abonnement X Premium+. Il est conçu pour répondre aux questions, générer du contenu créatif et fournir des informations en temps réel. Cependant, sa capacité à générer des images et des vidéos réalistes a soulevé des inquiétudes quant à son potentiel de détournement.
Les experts techniques expliquent que les deepfakes exploitent des algorithmes sophistiqués d'apprentissage automatique, en particulier des réseaux neuronaux profonds, pour manipuler ou synthétiser du contenu visuel et audio. Ces algorithmes sont entraînés sur de vastes ensembles de données d'images et de vidéos, ce qui leur permet de créer des contrefaçons convaincantes. Le coût relativement faible et l'accessibilité croissante de ces technologies ont contribué à l'essor des deepfakes.
La demande du DIN se concentre sur plusieurs domaines clés, notamment le renforcement des politiques de modération du contenu, l'amélioration des algorithmes de détection des deepfakes et des protocoles de vérification des utilisateurs plus stricts. Le gouvernement demande également une plus grande transparence concernant l'utilisation de contenu généré par l'IA sur la plateforme.
X a répondu à la demande du DIN par une déclaration reconnaissant les préoccupations. "Nous nous engageons à résoudre le problème des deepfakes sur notre plateforme", indique le communiqué. "Nous travaillons activement au développement et au déploiement de nouvelles technologies pour détecter et supprimer les contenus malveillants générés par l'IA. Nous étudions également des moyens d'améliorer la vérification des utilisateurs et de promouvoir une utilisation responsable de l'IA."
Les analystes du secteur suggèrent que cet incident met en évidence les défis croissants de la réglementation du contenu généré par l'IA. "La vitesse à laquelle la technologie de l'IA progresse dépasse notre capacité à développer des cadres réglementaires efficaces", a déclaré le Dr Ben Carter, professeur d'éthique de l'IA à l'université de Stanford. "Nous avons besoin d'une approche multidimensionnelle qui implique une collaboration entre le gouvernement, l'industrie et le monde universitaire pour relever ces défis."
Le DIN a donné à X un délai de deux semaines pour soumettre un plan détaillé décrivant les mesures qu'elle propose de prendre pour résoudre le problème des deepfakes. Le non-respect de cette obligation pourrait entraîner des amendes ou d'autres mesures réglementaires, selon le DIN. La situation reste fluide et d'autres développements sont attendus dans les prochains jours, à mesure que X répondra aux demandes du gouvernement.
Discussion
Join the conversation
Be the first to comment