Le gouvernement est critiqué pour avoir prétendument retardé la mise en œuvre d'une législation concernant les deepfakes, en particulier à la lumière de l'émergence de Grok AI et de son potentiel de mauvaise utilisation. Les critiques soutiennent que ce retard rend la société vulnérable aux applications malveillantes de cette technologie, notamment les campagnes de désinformation et le vol d'identité.
L'accusation porte sur la lenteur perçue de la rédaction et de la promulgation de lois qui cibleraient spécifiquement la création et la distribution de deepfakes. Les deepfakes sont, par essence, des médias synthétiques où une personne dans une image ou une vidéo existante est remplacée par la ressemblance d'une autre personne. Ceci est réalisé grâce à des techniques sophistiquées d'intelligence artificielle, principalement en utilisant des algorithmes d'apprentissage profond – d'où le nom. Ces algorithmes analysent de vastes ensembles de données d'images et de vidéos pour apprendre les traits du visage, les expressions et les manières d'une personne, ce qui leur permet de superposer de manière convaincante la ressemblance de cette personne sur un autre individu dans un enregistrement vidéo ou audio.
L'inquiétude est amplifiée par les capacités de Grok AI, un grand modèle linguistique (LLM) développé par xAI. Les LLM sont entraînés sur des quantités massives de données textuelles, ce qui leur permet de générer du texte de qualité humaine, de traduire des langues et de répondre à des questions de manière exhaustive. Bien que les LLM aient de nombreuses applications bénéfiques, ils peuvent également être exploités pour créer de faux articles de presse convaincants, générer des enregistrements audio réalistes de personnes disant des choses qu'elles n'ont jamais dites, et même contribuer à la création de vidéos deepfake.
« Plus nous attendons pour réglementer les deepfakes, plus le risque de manipulation généralisée et d'érosion de la confiance dans nos institutions est grand », a déclaré Laura Cress, défenseure des droits numériques. « Grok AI et les technologies similaires sont des outils puissants, mais sans garanties appropriées, ils peuvent être militarisés. »
Le débat autour de la réglementation des deepfakes est complexe. D'une part, il est nécessaire de protéger les individus et la société contre les dommages potentiels des deepfakes. D'autre part, on craint d'étouffer l'innovation et de porter atteinte à la liberté d'expression. Toute législation doit trouver un équilibre délicat entre ces intérêts concurrents.
Plusieurs approches de la réglementation des deepfakes sont envisagées. Il s'agit notamment d'exiger des avertissements sur les deepfakes, de criminaliser la création et la distribution de deepfakes malveillants et de développer des solutions technologiques pour détecter les deepfakes. Certains chercheurs explorent des méthodes pour filigraner ou empreinter le contenu numérique, ce qui facilite l'identification des médias manipulés. D'autres travaillent sur des outils basés sur l'IA qui peuvent analyser les vidéos et les enregistrements audio pour détecter les signes révélateurs de manipulation deepfake.
Le gouvernement a déclaré qu'il était déterminé à relever les défis posés par les deepfakes et qu'il travaillait activement sur la législation. Cependant, les critiques soutiennent que le processus est trop long, surtout compte tenu des progrès rapides de la technologie de l'IA. Les prochaines étapes impliqueront probablement d'autres consultations avec des experts, des parties prenantes et le public, suivies de la rédaction et de la présentation de la législation à l'organe législatif compétent. Le calendrier de promulgation reste incertain.
Discussion
Join the conversation
Be the first to comment