Le gouvernement est critiqué pour avoir prétendument retardé la mise en œuvre d'une législation visant à lutter contre les deepfakes, en particulier à la lumière de l'émergence de Grok AI et de son utilisation abusive potentielle. Les critiques soutiennent que ce retard rend le public vulnérable à des formes de désinformation et de manipulation de plus en plus sophistiquées.
Les accusations portent sur la lenteur perçue des progrès concernant un projet de loi qui établirait des cadres juridiques pour identifier, étiqueter et sanctionner la création et la distribution de contenu deepfake. Les deepfakes, qui sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance d'une autre personne, sont créés à l'aide de techniques d'intelligence artificielle, principalement l'apprentissage profond. Ces techniques permettent de générer des vidéos et des enregistrements audio très réalistes, mais fabriqués.
« Plus nous attendons pour promulguer une législation solide, plus le risque que les deepfakes soient utilisés pour saper les élections, nuire à la réputation et semer la discorde est grand », a déclaré Laura Cress, une experte de premier plan en matière d'éthique et de politique de l'IA, dans une récente interview. Mme Cress a en outre souligné l'urgence de la situation, soulignant les progrès rapides de la technologie de l'IA, en particulier le développement de Grok AI, comme un catalyseur d'une utilisation abusive potentielle.
Grok AI, développé par xAI, est un grand modèle linguistique (LLM) connu pour ses capacités de conversation et son accès à des informations en temps réel via la plateforme X (anciennement Twitter). Les LLM sont des systèmes d'IA entraînés sur des ensembles de données massifs de texte et de code, ce qui leur permet de générer du texte de type humain, de traduire des langues et de répondre à des questions. Bien que Grok AI soit conçu à des fins bénéfiques, ses capacités pourraient être exploitées pour créer et diffuser des deepfakes convaincants à grande échelle, selon les préoccupations soulevées par plusieurs observateurs technologiques.
Le projet de loi vise à aborder plusieurs aspects clés du problème des deepfakes. Il comprend des dispositions pour l'étiquetage obligatoire du contenu généré par l'IA, l'établissement de recours juridiques pour les personnes dont l'image est utilisée sans consentement et l'imposition de sanctions à ceux qui créent et distribuent des deepfakes malveillants. Le projet de loi vise également à clarifier les responsabilités juridiques des plateformes de médias sociaux dans l'identification et la suppression du contenu deepfake.
Cependant, le projet de loi a rencontré de nombreux obstacles, notamment des débats sur la portée de la législation, des préoccupations concernant les impacts potentiels sur la liberté d'expression et des désaccords sur la faisabilité technique de la détection des deepfakes. Certains soutiennent qu'une législation trop large pourrait étouffer les utilisations légitimes de la technologie de l'IA, telles que l'expression artistique et la satire. D'autres expriment leur scepticisme quant à la capacité des méthodes de détection actuelles à suivre le rythme des progrès rapides de la technologie des deepfakes.
« Trouver le juste équilibre entre la protection du public contre les dommages et la préservation de la liberté d'expression est un défi complexe », a déclaré un porte-parole du gouvernement, qui a demandé l'anonymat en raison de la sensibilité de la question. « Nous sommes déterminés à faire en sorte que toute législation que nous promulguons soit à la fois efficace et constitutionnelle. »
L'état actuel du projet de loi est qu'il reste en cours d'examen par une commission parlementaire. Une série d'audiences publiques sont prévues dans les semaines à venir, au cours desquelles des experts, des parties prenantes et des membres du public auront la possibilité de donner leur avis. Le gouvernement a indiqué qu'il avait l'intention de finaliser la législation d'ici la fin de l'année, mais les critiques restent sceptiques, citant des retards antérieurs et un manque d'engagement clair. Le débat met en évidence la tension permanente entre l'innovation technologique et la nécessité de cadres réglementaires pour atténuer les risques potentiels.
Discussion
Join the conversation
Be the first to comment