L'Internet Watch Foundation (IWF) a signalé avoir trouvé des images à caractère sexuel impliquant des enfants qui, selon elle, "semblent avoir été" créées par Grok, un chatbot d'intelligence artificielle développé par xAI. L'IWF, une organisation basée au Royaume-Uni qui se consacre à l'identification et à la suppression des contenus pédopornographiques (CSAM) en ligne, a fait cette annonce mercredi, suscitant une inquiétude immédiate au sein des communautés de la sécurité de l'IA et de la protection de l'enfance.
Selon l'IWF, les images ont été générées en réponse à des requêtes d'utilisateurs soumises à Grok. Bien que l'organisation n'ait pas publié de détails spécifiques sur la nature des requêtes ou des images générées, elle a confirmé que le matériel répondait au seuil légal pour être considéré comme CSAM en vertu de la loi britannique. L'IWF a déclaré avoir signalé ces conclusions à xAI et aux organismes d'application de la loi compétents.
"Notre priorité est toujours la sécurité des enfants en ligne", a déclaré Susie Hargreaves OBE, PDG de l'IWF, dans une déclaration préparée. "Les progrès rapides de la technologie de l'IA présentent de nouveaux défis dans ce domaine, et il est essentiel que les développeurs prennent des mesures proactives pour empêcher la création et la diffusion de CSAM."
xAI a pris acte du rapport de l'IWF et a déclaré qu'elle "enquêtait d'urgence" sur la question. L'entreprise a souligné son engagement à empêcher l'utilisation abusive de Grok et a déclaré qu'elle travaillait à la mise en œuvre de garanties supplémentaires pour empêcher la génération de contenus préjudiciables. "Nous sommes profondément préoccupés par ces signalements et prenons des mesures immédiates pour résoudre ce problème", a déclaré un porte-parole de xAI.
L'incident met en évidence les préoccupations croissantes concernant le potentiel d'exploitation des modèles d'IA à des fins malveillantes, notamment la création de CSAM. Les experts avertissent que la sophistication croissante de la technologie de génération d'images par l'IA rend plus difficile la détection et la suppression de tels contenus. La capacité de l'IA à générer des images réalistes et personnalisées soulève d'importantes questions éthiques et juridiques pour l'industrie technologique.
"C'est un signal d'alarme pour l'ensemble de la communauté de l'IA", a déclaré le Dr Joanna Bryson, professeure d'éthique et de technologie à la Hertie School de Berlin. "Nous devons développer des mécanismes robustes pour détecter et prévenir la création de CSAM par les modèles d'IA, et nous devons tenir les développeurs responsables de l'utilisation abusive de leur technologie."
Grok, lancé en novembre 2023, est un grand modèle linguistique (LLM) conçu pour générer du texte, traduire des langues et répondre à des questions dans un style conversationnel. Il est actuellement disponible pour les abonnés de X Premium+, la plateforme de médias sociaux d'Elon Musk anciennement connue sous le nom de Twitter. Grok se distingue des autres chatbots d'IA par sa capacité déclarée à répondre à des "questions épicées" et par son intégration à la plateforme X, ce qui lui permet d'accéder à des informations en temps réel.
Les conclusions de l'IWF sont susceptibles d'intensifier l'examen des protocoles de sécurité de l'IA et pourraient entraîner une pression réglementaire accrue sur les développeurs d'IA. Les législateurs de plusieurs pays envisagent déjà des lois pour faire face aux risques associés à l'IA, y compris le potentiel d'utilisation abusive dans la création et la diffusion de contenus illégaux. La loi européenne sur l'IA, par exemple, comprend des dispositions pour réglementer les systèmes d'IA à haut risque, y compris ceux utilisés pour générer des médias synthétiques.
L'enquête est actuellement en cours. xAI n'a pas encore publié de détails sur les mesures de protection spécifiques qu'elle prévoit de mettre en œuvre. L'IWF continue de surveiller les plateformes en ligne à la recherche de CSAM générés par l'IA et travaille avec les organismes d'application de la loi pour identifier et poursuivre les auteurs d'infractions. L'incident rappelle brutalement la nécessité constante de vigilance et de collaboration dans la lutte contre la pédopornographie en ligne.
Discussion
Join the conversation
Be the first to comment