Plusieurs sénateurs américains exigent des réponses de grandes entreprises technologiques, dont X, Meta, Alphabet, Snap, Reddit et TikTok, concernant leurs stratégies pour lutter contre la prolifération de deepfakes à caractère sexuel sur leurs plateformes. Dans une lettre adressée aux dirigeants de ces entreprises, les sénateurs ont demandé des preuves de protections et de politiques robustes conçues pour freiner l'essor d'images non consensuelles générées par l'IA.
Les sénateurs ont également exigé que les entreprises conservent tous les documents et informations relatifs à la création, à la détection, à la modération et à la monétisation d'images à caractère sexuel générées par l'IA, ainsi que toutes les politiques connexes. Cette demande fait suite à des signalements soulignant la facilité avec laquelle des modèles d'IA, tels que Grok, ont été utilisés pour générer des images explicites de femmes et d'enfants.
La lettre a été envoyée quelques heures après que X a annoncé des mises à jour de son modèle d'IA Grok, lui interdisant de créer des modifications de personnes réelles portant des vêtements révélateurs. X a également limité la création et l'édition d'images via Grok aux abonnés payants. X et xAI font partie de la même entreprise.
Les sénateurs ont souligné que les mesures de protection des plateformes contre les images à caractère sexuel non consensuelles pourraient être insuffisantes, même avec les politiques existantes contre les images intimes non consensuelles et l'exploitation sexuelle. Les sénateurs ont fait référence à des articles de presse sur la facilité et la fréquence avec lesquelles Grok générait des images à caractère sexuel et des images de nudité de femmes et d'enfants.
Les deepfakes, qui sont des médias synthétiques générés par l'IA dans lesquels une personne dans une image ou une vidéo existante est remplacée par la ressemblance de quelqu'un d'autre, ont soulevé d'importantes préoccupations quant à leur potentiel d'utilisation abusive, en particulier dans la création de pornographie non consensuelle et la diffusion de désinformation. La technologie repose sur des techniques avancées d'apprentissage automatique, telles que l'apprentissage profond, pour analyser et reproduire l'apparence et la voix d'une personne.
L'enquête des sénateurs souligne la pression croissante exercée sur les entreprises technologiques pour qu'elles s'attaquent aux implications éthiques et sociétales du contenu généré par l'IA. La demande de documentation sur les stratégies de détection et de modération suggère une focalisation sur les défis techniques liés à l'identification et à la suppression des deepfakes des plateformes en ligne. Les pratiques de monétisation liées à ce type de contenu sont également examinées de près, ce qui témoigne des préoccupations concernant les incitations financières qui peuvent contribuer à sa propagation.
La réponse de ces entreprises technologiques impliquera probablement la description détaillée de leurs systèmes actuels de modération du contenu de l'IA, qui utilisent souvent une combinaison d'outils automatisés et d'examinateurs humains. Ces systèmes reposent généralement sur des algorithmes entraînés à détecter les schémas et les caractéristiques associés aux deepfakes, tels que les incohérences d'éclairage, les mouvements faciaux non naturels et autres signes révélateurs de manipulation.
La demande d'informations des sénateurs met également en évidence le débat en cours sur l'équilibre entre la liberté d'expression et la nécessité de protéger les individus contre les préjudices causés par le contenu généré par l'IA. Alors que la technologie de l'IA continue de progresser, les décideurs politiques et les entreprises technologiques sont aux prises avec le défi de développer des réglementations et des mesures de protection efficaces qui peuvent atténuer les risques associés aux deepfakes tout en préservant les avantages de l'innovation en matière d'IA. L'issue de cette enquête pourrait influencer la législation future et les normes de l'industrie en matière de modération du contenu de l'IA et de prévention des abus d'images non consensuelles.
Discussion
Join the conversation
Be the first to comment