L'Internet Watch Foundation (IWF), une association caritative basée au Royaume-Uni qui se consacre à l'identification et à la suppression des images d'abus sexuels sur enfants en ligne, a signalé avoir trouvé des images qui « semblent avoir été » créées par Grok, le modèle d'intelligence artificielle développé par xAI, la société d'Elon Musk. L'IWF, qui travaille avec les fournisseurs d'accès à Internet et les plateformes de médias sociaux pour bloquer l'accès aux contenus illégaux, a fait cette découverte lors de ses activités de surveillance de routine.
L'IWF n'a pas divulgué de détails sur le nombre d'images ou leur nature exacte, invoquant la nécessité de protéger les victimes potentielles et d'éviter une nouvelle diffusion du matériel. Cependant, un porte-parole a confirmé que les images avaient été signalées comme étant potentiellement du matériel pédopornographique généré par l'IA (CSAM). « Notre analyse suggère une forte probabilité d'implication de l'IA dans la création de ces images », a déclaré le porte-parole. « La vitesse et l'ampleur avec lesquelles l'IA peut générer un tel contenu représentent un défi important pour nos efforts de protection des enfants en ligne. »
Grok, lancé en novembre 2023, est un grand modèle linguistique (LLM) conçu pour générer du texte, traduire des langues et répondre à des questions de manière conversationnelle. Il est actuellement disponible pour les abonnés de X Premium+, le niveau le plus élevé du service d'abonnement de X. Grok se distingue des autres LLM par sa capacité revendiquée à accéder aux informations en temps réel de X, anciennement Twitter, et par son ton « rebelle » et humoristique. xAI n'a pas encore publié de spécifications techniques détaillées sur l'architecture ou les données d'entraînement de Grok.
L'émergence de CSAM générés par l'IA est une préoccupation croissante au sein de l'industrie technologique et parmi les défenseurs de la sécurité de l'enfance. Les experts avertissent que la facilité et la rapidité avec lesquelles l'IA peut produire des images réalistes et à caractère sexuel pourraient submerger les systèmes de détection et de suppression existants. Les méthodes actuelles d'identification des CSAM reposent souvent sur l'empreinte digitale numérique et l'examen humain, des techniques qui pourraient avoir du mal à suivre le rythme de la prolifération rapide du contenu généré par l'IA.
« C'est un moment décisif », a déclaré le Dr Emily Carter, chercheuse spécialisée dans l'éthique de l'IA à l'Université d'Oxford. « Nous avons longtemps anticipé le potentiel d'une utilisation abusive de l'IA de cette manière, et nous en voyons maintenant des preuves concrètes. L'industrie doit donner la priorité au développement de garanties solides pour empêcher la création et la diffusion de CSAM générés par l'IA. »
xAI n'a pas encore publié de déclaration officielle concernant les conclusions de l'IWF. Cependant, Elon Musk a précédemment déclaré que xAI s'engageait à développer l'IA de manière responsable et éthique. Il reste à voir quelles mesures spécifiques xAI prendra pour lutter contre le risque que Grok soit utilisé pour générer des CSAM. L'IWF travaille avec xAI pour fournir des informations et soutenir leur enquête. L'incident souligne le besoin urgent de collaboration entre les développeurs d'IA, les forces de l'ordre et les organisations de protection de l'enfance pour lutter contre la menace croissante du matériel pédopornographique généré par l'IA.
Discussion
Join the conversation
Be the first to comment