Les autorités gouvernementales exigent que la plateforme de médias sociaux X, propriété d'Elon Musk, s'attaque à la prolifération de ce qu'elles qualifient de "deepfakes épouvantables" générés par Grok, le chatbot d'intelligence artificielle de la plateforme. Cette demande fait suite à une recrudescence de contenus audio et vidéo réalistes, mais fabriqués, circulant sur X, ce qui soulève des inquiétudes quant à la désinformation potentielle et à l'atteinte à la réputation.
Les préoccupations du gouvernement se concentrent sur la capacité de Grok à générer des deepfakes très convaincants avec un minimum d'intervention de l'utilisateur. Les deepfakes, abréviation de "deep learning fakes" (faux par apprentissage profond), utilisent des algorithmes d'IA sophistiqués pour manipuler ou générer du contenu visuel et audio, ce qui rend souvent difficile la distinction entre le matériel réel et le matériel fabriqué. La technologie repose sur des réseaux neuronaux entraînés sur de vastes ensembles de données d'images et d'audio pour apprendre et reproduire les caractéristiques humaines.
"Nous sommes profondément préoccupés par le potentiel de Grok à être utilisé à des fins malveillantes", a déclaré un porte-parole du ministère de la Réglementation des technologies dans un communiqué. "La facilité avec laquelle des deepfakes convaincants peuvent être créés et diffusés sur X constitue une menace importante pour la confiance du public et la sécurité."
Les représentants de X ont reconnu les préoccupations du gouvernement et ont déclaré qu'ils travaillaient activement à atténuer les risques associés à Grok. "Nous nous engageons à garantir une utilisation responsable de l'IA sur notre plateforme", indique un communiqué de l'équipe Confiance et sécurité de X. "Nous mettons en œuvre des mécanismes de détection améliorés et des politiques de modération du contenu pour identifier et supprimer les deepfakes qui violent nos conditions d'utilisation."
Grok, lancé à la fin de l'année dernière, est un chatbot d'IA intégré au service d'abonnement premium de X. Il est conçu pour répondre aux questions, générer du contenu créatif et engager des conversations avec les utilisateurs. Bien que X présente Grok comme un outil de divertissement et d'information, les critiques soutiennent que ses capacités sont facilement exploitées pour créer et diffuser de la désinformation.
Les analystes du secteur suggèrent que l'intervention du gouvernement met en évidence les défis réglementaires croissants liés au contenu généré par l'IA. "C'est un moment décisif", a déclaré le Dr Anya Sharma, professeur d'éthique de l'IA à l'université de Californie à Berkeley. "Cela souligne le besoin urgent de cadres juridiques clairs et de lignes directrices éthiques pour régir le développement et le déploiement des technologies d'IA, en particulier dans le contexte des plateformes de médias sociaux."
La demande des autorités gouvernementales intervient alors que plusieurs pays s'efforcent de réglementer les deepfakes et autres formes de désinformation générées par l'IA. L'Union européenne, par exemple, envisage des réglementations plus strictes sur les technologies d'IA dans le cadre de sa proposition de loi sur l'IA.
X est confronté au défi de concilier son engagement en faveur de la liberté d'expression avec la nécessité de protéger les utilisateurs contre les contenus préjudiciables. Les politiques actuelles de modération du contenu de l'entreprise interdisent la création et la distribution de deepfakes destinés à tromper ou à induire en erreur, mais l'application s'est avérée difficile en raison de l'évolution rapide de la technologie de l'IA.
X a déclaré qu'elle explorait plusieurs solutions techniques pour résoudre le problème des deepfakes, notamment le marquage en filigrane du contenu généré par l'IA, le développement d'algorithmes de détection plus sophistiqués et la mise en œuvre de processus de vérification plus stricts pour les utilisateurs qui créent ou partagent du contenu potentiellement trompeur. L'entreprise n'a pas fourni de calendrier précis pour la mise en œuvre de ces mesures. Le ministère de la Réglementation des technologies a indiqué qu'il continuerait à surveiller les progrès de X et qu'il envisagerait d'autres mesures si nécessaire.
Discussion
Join the conversation
Be the first to comment