L'Internet Watch Foundation (IWF), une association caritative basée au Royaume-Uni qui se consacre à l'identification et à la suppression des images d'abus sexuels sur enfants en ligne, a signalé avoir trouvé des images qui "semblent avoir été" générées par Grok, le modèle d'intelligence artificielle développé par xAI, la société d'Elon Musk. L'IWF a signalé les images et les a communiquées à xAI, selon un communiqué publié par l'organisation.
Cette découverte soulève d'importantes préoccupations quant au potentiel d'exploitation des modèles d'IA à des fins malveillantes, notamment la création de matériel pédopornographique. Cet incident met en évidence les défis constants que représente la prévention de l'utilisation abusive d'une technologie d'IA de plus en plus sophistiquée.
Grok, lancé en novembre 2023, est un grand modèle linguistique (LLM) conçu pour générer du texte, traduire des langues, écrire différents types de contenu créatif et répondre à des questions de manière informative. Les LLM sont entraînés sur des ensembles de données massifs de texte et de code, ce qui leur permet d'apprendre des modèles et de générer de nouveaux contenus. Toutefois, cet entraînement signifie également qu'ils peuvent potentiellement reproduire des contenus nuisibles ou illégaux si des mesures de protection ne sont pas mises en œuvre efficacement.
"La principale préoccupation de l'IWF est la sécurité des enfants", a déclaré Susie Hargreaves OBE, PDG de l'IWF, dans un communiqué de presse. "Nous travaillons avec xAI pour comprendre les circonstances de cet incident et pour nous assurer que des mesures appropriées sont prises pour prévenir de futurs incidents."
xAI n'a pas encore publié de déclaration publique concernant les conclusions de l'IWF. Toutefois, l'entreprise a déjà déclaré qu'elle s'engageait à développer l'IA de manière responsable et à atténuer les risques potentiels. L'incident est susceptible d'intensifier l'examen minutieux des protocoles de sécurité et des politiques de modération du contenu de xAI.
L'incident souligne le défi plus large, à l'échelle de l'industrie, de la prévention de la génération de matériel pédopornographique par les modèles d'IA. Les experts soulignent la nécessité de mécanismes de filtrage robustes, de stratégies de modération du contenu et d'une surveillance continue pour détecter et supprimer les contenus nuisibles. Cela comprend des techniques telles que l'entraînement contradictoire, où les modèles d'IA sont spécifiquement entraînés à identifier et à éviter de générer du matériel pédopornographique.
Cette évolution intervient à un moment où les régulateurs du monde entier s'efforcent de réglementer l'IA. La loi sur l'IA de l'Union européenne, par exemple, vise à établir un cadre juridique pour le développement et le déploiement de l'IA, avec des dispositions spécifiques concernant les applications à haut risque. L'incident impliquant Grok est susceptible d'alimenter le débat sur la nécessité de réglementations plus strictes et d'une plus grande responsabilité dans l'industrie de l'IA.
L'IWF continue de travailler avec xAI et d'autres entreprises technologiques pour lutter contre la propagation du matériel pédopornographique en ligne. Les efforts de l'organisation comprennent l'identification et le signalement des contenus illégaux, le développement d'outils pour détecter et supprimer les contenus nuisibles, et la sensibilisation à ce problème. L'enquête sur les images générées par Grok est en cours, et d'autres détails devraient être révélés au fur et à mesure que xAI mènera son examen interne.
Discussion
Join the conversation
Be the first to comment