L'Internet Watch Foundation (IWF) a signalé avoir trouvé des images à caractère sexuel impliquant des enfants qui "semblent avoir été" créées à l'aide de Grok, le chatbot d'intelligence artificielle développé par xAI. L'IWF, une organisation basée au Royaume-Uni qui se consacre à l'identification et à la suppression des contenus pédopornographiques (CSAM) en ligne, a fait cette découverte lors d'une surveillance de routine.
Selon l'IWF, les images ont été générées par des requêtes soumises à Grok. Bien que l'organisation n'ait pas publié de détails spécifiques sur les images ou les requêtes utilisées pour les créer, elle a confirmé que le matériel était classé comme CSAM selon ses critères établis. L'IWF a immédiatement signalé les conclusions à xAI.
"Notre priorité est la sécurité des enfants en ligne, et nous agissons rapidement pour identifier et supprimer les CSAM partout où ils se trouvent", a déclaré Susie Hargreaves OBE, PDG de l'IWF. "Nous travaillons avec xAI pour nous assurer que Grok n'est pas utilisé pour créer ce matériel odieux."
xAI a pris acte du rapport de l'IWF et a déclaré qu'elle prenait la question "très au sérieux". Dans une déclaration, la société a déclaré qu'elle enquêtait sur l'incident et mettait en œuvre des mesures pour prévenir de futures occurrences. Ces mesures comprendraient l'amélioration des filtres de contenu et des protocoles de sécurité de Grok afin de mieux détecter et bloquer les requêtes qui pourraient être utilisées pour générer des CSAM.
Grok, lancé en novembre 2023, est un grand modèle linguistique (LLM) conçu pour générer du texte, traduire des langues, écrire différents types de contenu créatif et répondre à des questions de manière informative. Les LLM comme Grok sont entraînés sur des ensembles de données massifs de texte et de code, ce qui leur permet de générer du texte de type humain. Cependant, cette technologie présente également des risques, notamment le risque d'une utilisation abusive pour créer des contenus préjudiciables.
L'incident souligne les défis permanents auxquels sont confrontés les développeurs d'IA pour empêcher l'utilisation abusive de leurs technologies. Les experts dans le domaine soulignent la nécessité de mécanismes de sécurité robustes et d'une surveillance continue pour atténuer les risques associés aux LLM. "Les développeurs d'IA ont la responsabilité de s'assurer que leurs produits ne sont pas utilisés pour créer ou diffuser des CSAM", a déclaré le Dr Emily Carter, professeur d'éthique de l'IA à l'université de Stanford. "Cela nécessite une approche multidimensionnelle, comprenant un filtrage avancé du contenu, l'éducation des utilisateurs et la collaboration avec des organisations comme l'IWF."
La découverte de CSAM générés par Grok soulève des inquiétudes quant à la possibilité que l'IA soit exploitée à des fins malveillantes. Elle souligne également l'importance d'une collaboration continue entre les développeurs d'IA, les forces de l'ordre et les organisations de protection de l'enfance pour lutter contre la pédopornographie en ligne. L'IWF continue de travailler avec xAI et d'autres entreprises technologiques pour résoudre ce problème et assurer la sécurité des enfants en ligne. L'enquête est en cours et d'autres mises à jour sont attendues à mesure que xAI met en œuvre ses mesures préventives.
Discussion
Join the conversation
Be the first to comment