Le 10 Downing Street a pris acte des informations selon lesquelles X, anciennement Twitter, prend des mesures pour résoudre le problème des deepfakes générés à l'aide de son modèle d'IA Grok. L'accueil positif du gouvernement témoigne d'une pression croissante sur les plateformes de médias sociaux pour qu'elles luttent contre la propagation de la désinformation générée par l'IA.
La décision de X intervient dans un contexte d'inquiétudes croissantes quant au potentiel de Grok, un modèle d'IA conçu pour l'IA conversationnelle et la génération de texte, à être utilisé à mauvais escient pour créer des contenus audio et vidéo convaincants mais fabriqués. Les deepfakes, qui exploitent des techniques sophistiquées d'apprentissage automatique, peuvent être utilisés pour se faire passer pour des individus, diffuser de faux récits et manipuler l'opinion publique.
"Nous saluons tous les efforts visant à atténuer les risques associés au contenu généré par l'IA", a déclaré un porte-parole de Downing Street. "Il est essentiel que les plateformes assument la responsabilité de la technologie qu'elles déploient et qu'elles s'efforcent activement d'empêcher son utilisation abusive."
Grok, développé par xAI, la société d'intelligence artificielle d'Elon Musk, est un grand modèle linguistique (LLM) entraîné sur un ensemble massif de données textuelles et de code. Les LLM comme Grok utilisent des réseaux neuronaux avec des milliards de paramètres pour comprendre et générer du texte de type humain. La préoccupation découle de la capacité du modèle à générer des scripts et des dialogues réalistes qui peuvent ensuite être combinés avec des techniques de manipulation d'images et de vidéos pour créer des deepfakes convaincants.
Bien que les détails des mesures spécifiques de X restent limités, les analystes du secteur estiment que la plateforme pourrait mettre en œuvre une combinaison d'algorithmes de détection, de politiques de modération du contenu et de mécanismes de signalement par les utilisateurs. Les algorithmes de détection peuvent analyser le contenu vidéo et audio à la recherche de signes révélateurs de manipulation par l'IA, tels que des incohérences dans les mouvements du visage ou des schémas de parole non naturels. Les politiques de modération du contenu définiraient la position de la plateforme sur les deepfakes et les conséquences pour les utilisateurs qui les créent ou les partagent. Les mécanismes de signalement par les utilisateurs permettraient à ces derniers de signaler les contenus potentiellement préjudiciables pour examen par l'équipe de modération de X.
L'essor des outils d'IA générative comme Grok a posé un défi important aux plateformes de médias sociaux et aux décideurs politiques. Les réglementations existantes ont souvent du mal à suivre le rythme des progrès rapides de la technologie de l'IA. La loi sur l'IA de l'Union européenne, par exemple, vise à réglementer les systèmes d'IA en fonction de leur niveau de risque, mais son efficacité pour faire face à la menace spécifique des deepfakes reste à déterminer.
L'impact des actions de X sur le secteur pourrait être considérable, créant potentiellement un précédent que d'autres plateformes pourraient suivre. À mesure que la technologie des deepfakes devient plus sophistiquée et accessible, la pression sur les entreprises de médias sociaux pour qu'elles s'attaquent de manière proactive à ce problème ne fera que s'intensifier. Le développement et le déploiement de stratégies efficaces de détection et d'atténuation seront essentiels pour maintenir la confiance du public et empêcher la propagation de la désinformation.
X n'a pas encore publié de déclaration complète décrivant ses plans spécifiques pour lutter contre les deepfakes générés par Grok. D'autres détails sont attendus dans les prochaines semaines.
Discussion
Join the conversation
Be the first to comment