L'Internet Watch Foundation (IWF), une association caritative basée au Royaume-Uni qui se consacre à l'identification et à la suppression des images d'abus sexuels sur enfants en ligne, a signalé avoir trouvé des images qui "semblent avoir été" générées par Grok, le modèle d'intelligence artificielle développé par xAI, la société d'Elon Musk. L'IWF a fait cette découverte lors de sa surveillance de routine d'Internet à la recherche de contenu illégal.
La nature précise des images n'a pas été divulguée par l'IWF, invoquant la nécessité d'éviter toute diffusion supplémentaire du matériel. Cependant, l'organisation a confirmé que les images répondaient à ses critères pour les images d'abus sexuels sur enfants. "Notre priorité est la sécurité des enfants, et nous travaillons avec diligence pour supprimer ce type de contenu d'Internet", a déclaré Susie Hargreaves OBE, PDG de l'IWF, dans un communiqué de presse. "Nous travaillons avec les plateformes concernées et les forces de l'ordre pour résoudre ce problème."
Grok, lancé fin 2023, est un grand modèle linguistique (LLM) conçu pour générer du texte, traduire des langues, écrire différents types de contenu créatif et répondre à des questions de manière informative. Les LLM sont entraînés sur des ensembles de données massifs de texte et de code, ce qui leur permet d'apprendre les modèles et les relations dans le langage. Cependant, cette formation peut également exposer involontairement les modèles à un contenu nuisible, qui peut ensuite être reproduit dans leurs sorties.
L'incident soulève des inquiétudes quant au potentiel d'utilisation abusive des modèles d'IA à des fins malveillantes, notamment la création de matériel d'abus sexuels sur enfants. Les experts dans le domaine de la sécurité de l'IA mettent en garde depuis longtemps contre les risques associés au développement et au déploiement incontrôlés de ces technologies. "C'est un rappel brutal que nous avons besoin de garanties solides pour empêcher l'IA d'être exploitée de cette manière", a déclaré le Dr Joanna Bryson, professeur d'éthique et de technologie à la Hertie School de Berlin. "Les développeurs ont la responsabilité de s'assurer que leurs modèles ne sont pas capables de générer du contenu nuisible."
xAI n'a pas encore publié de déclaration officielle concernant les conclusions de l'IWF. Cependant, Elon Musk a déjà déclaré son engagement à développer l'IA de manière responsable et éthique. Le site web de l'entreprise décrit son approche de la sécurité de l'IA, qui comprend des mesures visant à empêcher la génération de contenu nuisible. Il reste à voir quelles mesures xAI prendra pour résoudre les problèmes spécifiques soulevés par le rapport de l'IWF.
L'IWF continue de travailler avec les plateformes en ligne et les forces de l'ordre pour supprimer les images identifiées et empêcher leur diffusion ultérieure. L'incident est susceptible d'alimenter davantage le débat sur la nécessité d'une réglementation plus stricte du développement et du déploiement de l'IA, en particulier dans les domaines où il existe un risque de préjudice pour les personnes vulnérables. Le gouvernement britannique étudie actuellement une nouvelle législation pour relever les défis posés par l'IA, y compris des mesures visant à assurer la sûreté et la sécurité des systèmes d'IA.
Discussion
Join the conversation
Be the first to comment