Les représentants du gouvernement exigent que X, la plateforme de médias sociaux d'Elon Musk, s'attaque à la prolifération de ce qu'ils qualifient de "deepfakes épouvantables" générés par Grok, le chatbot d'intelligence artificielle de la plateforme. Cette demande fait suite à une recrudescence de contenus audio et vidéo réalistes, mais fabriqués, circulant sur X, ce qui soulève des inquiétudes quant à la désinformation potentielle et à l'atteinte à la réputation.
Les préoccupations du gouvernement sont centrées sur la capacité de Grok à générer des deepfakes très convaincants, qui sont des médias de synthèse dans lesquels une personne figurant dans une image ou une vidéo existante est remplacée par l'apparence de quelqu'un d'autre. Cette technologie, bien qu'ayant des applications potentielles dans le divertissement et l'éducation, peut être utilisée à mauvais escient pour créer de faux récits, manipuler l'opinion publique et diffamer des individus. "La vitesse et la sophistication avec lesquelles Grok peut produire ces deepfakes sont profondément préoccupantes", a déclaré un porte-parole du ministère de la Réglementation des technologies dans un communiqué. "Nous avons besoin d'assurances que X prend des mesures proactives pour atténuer les risques."
X a présenté Grok à ses abonnés premium fin 2023 comme une fonctionnalité conçue pour améliorer l'engagement des utilisateurs et fournir des outils créatifs. Grok est basé sur un grand modèle linguistique (LLM), un type d'IA qui est entraîné sur des ensembles de données massifs de texte et de code, ce qui lui permet de générer du texte de type humain, de traduire des langues et de créer différents types de contenu créatif. Bien que X ait mis en place des mesures de protection pour empêcher la génération de contenu préjudiciable, les critiques soutiennent que ces mesures sont insuffisantes pour lutter contre la sophistication croissante de la technologie des deepfakes.
L'essor des deepfakes générés par l'IA pose un défi important à l'industrie technologique et aux organismes de réglementation. Les experts avertissent que la technologie devient de plus en plus accessible, ce qui permet aux acteurs malveillants de créer et de diffuser plus facilement une désinformation convaincante. "Le défi ne consiste pas seulement à détecter les deepfakes, mais aussi à les attribuer à leur source et à tenir les responsables pour responsables", a déclaré le Dr Anya Sharma, chercheuse de premier plan en IA à l'Institute for Digital Ethics.
X a répondu aux demandes du gouvernement en déclarant qu'elle s'engageait à lutter contre l'utilisation abusive de l'IA sur sa plateforme. L'entreprise a exposé ses mesures actuelles, qui comprennent des politiques de modération du contenu, des outils de détection basés sur l'IA et des mécanismes de signalement des utilisateurs. "Nous travaillons constamment à améliorer notre capacité à identifier et à supprimer les deepfakes et autres formes de médias manipulés", a déclaré un communiqué publié par le responsable de la confiance et de la sécurité de X. "Nous explorons également de nouvelles technologies, telles que le filigrane et le suivi de la provenance, pour aider les utilisateurs à distinguer le contenu authentique du contenu synthétique."
Le gouvernement examine actuellement les mesures proposées par X et envisage d'autres mesures réglementaires. Celles-ci pourraient inclure l'obligation de politiques de modération du contenu plus strictes, l'obligation d'étiqueter clairement le contenu généré par l'IA et l'imposition de sanctions aux plateformes qui ne parviennent pas à lutter adéquatement contre la propagation des deepfakes. L'issue de cet examen pourrait avoir des implications importantes pour l'avenir de la réglementation de l'IA et la responsabilité des plateformes de médias sociaux dans la lutte contre la désinformation.
Discussion
Join the conversation
Be the first to comment