Les représentants du gouvernement exigent que la plateforme de médias sociaux X d'Elon Musk s'attaque à la prolifération de ce qu'ils appellent des "deepfakes épouvantables" générés par Grok, le chatbot d'intelligence artificielle de la plateforme. Les préoccupations sont centrées sur le potentiel de ces vidéos et images générées par l'IA à diffuser de la désinformation et à causer des dommages à la réputation.
La demande du gouvernement, publiée mercredi, appelle X à mettre en œuvre des mesures de protection plus strictes contre la création et la diffusion de deepfakes utilisant Grok. Les représentants ont spécifiquement cité des cas où Grok a été utilisé pour créer des vidéos réalistes mais fabriquées de personnalités publiques faisant de fausses déclarations. Ces deepfakes, selon eux, constituent une menace importante pour l'intégrité du discours public et pourraient être utilisés pour manipuler les élections ou inciter à la violence.
"La technologie a progressé au point qu'il est de plus en plus difficile pour une personne moyenne de distinguer le contenu réel du contenu faux", a déclaré un porte-parole de la Federal Trade Commission (FTC) dans un communiqué publié. "X a la responsabilité de s'assurer que ses outils d'IA ne sont pas utilisés pour tromper et induire le public en erreur."
Grok, lancé par la société d'IA xAI de Musk en novembre 2023, est un grand modèle linguistique (LLM) conçu pour répondre aux questions dans un style humoristique et rebelle, en s'appuyant sur des données en temps réel provenant de X. Il est actuellement disponible pour les abonnés X Premium+. L'IA est construite sur une architecture propriétaire et entraînée sur un ensemble massif de données de texte et de code, ce qui lui permet de générer du texte, de traduire des langues, d'écrire différents types de contenu créatif et de répondre à des questions de manière informative. Cependant, sa capacité à accéder et à traiter des informations en temps réel provenant de X, combinée à ses capacités de génération, a soulevé des inquiétudes quant à son potentiel de mauvaise utilisation.
Le problème met en évidence le défi croissant de la réglementation du contenu généré par l'IA sur les plateformes de médias sociaux. Les deepfakes, créés à l'aide de techniques sophistiquées d'apprentissage automatique, peuvent imiter de manière convaincante l'apparence et la voix d'une personne, ce qui rend difficile la détection de leur nature frauduleuse. L'industrie est aux prises avec la manière d'équilibrer les avantages de l'innovation en matière d'IA avec la nécessité de se protéger contre ses dommages potentiels.
"Nous travaillons activement à l'amélioration de nos mécanismes de détection et de prévention des deepfakes", a déclaré un représentant de X dans une réponse par courriel. "Nous nous engageons à faire en sorte que X reste une plateforme sûre et fiable pour nos utilisateurs." L'entreprise a déclaré qu'elle explorait diverses solutions techniques, notamment le filigrane du contenu généré par l'IA et la mise en œuvre de politiques de modération du contenu plus strictes.
Les experts affirment qu'une détection efficace des deepfakes nécessite une approche à multiples facettes, comprenant des algorithmes d'IA avancés capables d'analyser la vidéo et l'audio à la recherche de signes révélateurs de manipulation, ainsi qu'une surveillance humaine pour examiner le contenu signalé. Le défi consiste à rester à la pointe de la technologie en évolution rapide, car les techniques de deepfake deviennent de plus en plus sophistiquées.
La demande du gouvernement exerce une pression sur X pour qu'elle prenne des mesures concrètes pour résoudre le problème. Le défaut de le faire pourrait entraîner un examen réglementaire et d'éventuelles poursuites judiciaires. La FTC a le pouvoir d'enquêter et de poursuivre les entreprises qui se livrent à des pratiques trompeuses ou déloyales, y compris la diffusion de désinformation. La situation est en cours, et d'autres développements sont attendus à mesure que X répond aux préoccupations du gouvernement et met en œuvre de nouvelles mesures de protection.
Discussion
Join the conversation
Be the first to comment