L'Internet Watch Foundation (IWF), une association caritative basée au Royaume-Uni qui se consacre à l'identification et à la suppression des images d'abus sexuels sur enfants en ligne, a signalé avoir trouvé des images qui "semblent avoir été" générées par Grok, le modèle d'intelligence artificielle développé par xAI, la société d'Elon Musk. L'IWF a signalé ces images comme contenant potentiellement du matériel pédopornographique (CSAM) et les a signalées aux autorités compétentes.
Cette découverte soulève d'importantes inquiétudes quant au potentiel d'exploitation des modèles d'IA à des fins malveillantes, notamment la création de CSAM. Les experts dans le domaine de la sécurité de l'IA mettent en garde depuis longtemps contre les risques associés aux modèles d'IA génératifs de plus en plus sophistiqués, y compris leur utilisation abusive potentielle pour générer du contenu préjudiciable.
xAI n'a pas encore publié de déclaration officielle concernant les conclusions de l'IWF. Cependant, l'entreprise a déjà déclaré son engagement à développer l'IA de manière responsable et à atténuer les risques potentiels. Grok, qui est actuellement disponible pour les abonnés au service Premium+ de X (anciennement Twitter), est un grand modèle linguistique conçu pour générer du texte, traduire des langues, écrire différents types de contenu créatif et répondre à des questions de manière informative. Il se distingue des autres modèles d'IA par son intention déclarée de répondre à des "questions épicées" que d'autres IA pourraient éviter.
Le processus de l'IWF consiste à utiliser une combinaison d'outils automatisés et d'analystes humains pour identifier et catégoriser les contenus potentiellement illégaux en ligne. Une fois identifié, l'IWF signale le contenu aux fournisseurs d'accès à Internet (FAI) et à d'autres organisations concernées, qui sont alors responsables de la suppression du contenu de leurs plateformes. L'IWF travaille également avec les forces de l'ordre pour enquêter et poursuivre les personnes impliquées dans la production et la distribution de CSAM.
L'incident met en évidence les défis liés à la prévention de l'utilisation abusive de la technologie de l'IA. Les modèles d'IA génératifs, comme Grok, sont entraînés sur de vastes quantités de données, et il peut être difficile de les empêcher d'apprendre à générer du contenu préjudiciable. De plus, le rythme rapide du développement de l'IA rend difficile pour les régulateurs et les décideurs politiques de suivre l'évolution des risques.
"C'est un signal d'alarme pour l'ensemble de l'industrie de l'IA", a déclaré Emily Carter, chercheuse à l'AI Safety Institute, une organisation à but non lucratif dédiée à la promotion du développement sûr et responsable de l'IA. "Nous devons investir davantage de ressources dans le développement de garanties solides pour empêcher que les modèles d'IA ne soient utilisés pour créer des CSAM et d'autres formes de contenu préjudiciable."
L'état actuel de l'enquête n'est pas clair. Les forces de l'ordre enquêtent probablement sur l'origine des images et sur la mesure dans laquelle Grok a été utilisé pour les générer. L'incident est susceptible d'entraîner un examen plus approfondi des protocoles de sécurité de l'IA et pourrait conduire à de nouvelles réglementations régissant le développement et le déploiement de modèles d'IA génératifs. L'IWF continuera de surveiller la situation et de travailler avec les organisations concernées pour supprimer tout CSAM identifié sur Internet.
Discussion
Join the conversation
Be the first to comment