L'Internet Watch Foundation (IWF), une association caritative basée au Royaume-Uni qui se consacre à l'identification et à la suppression des images d'abus sexuels sur enfants en ligne, a signalé avoir trouvé des images qui semblent avoir été générées par Grok, le modèle d'intelligence artificielle développé par xAI, la société d'Elon Musk. L'IWF, qui travaille avec les fournisseurs d'accès à Internet pour bloquer l'accès aux contenus illégaux, a signalé les images après avoir identifié des caractéristiques indiquant une génération par IA, selon un communiqué publié mardi.
La nature spécifique des images n'a pas été divulguée par l'IWF, mais l'organisation a confirmé qu'elles impliquaient des représentations d'abus sexuels sur enfants. L'analyse de l'IWF a suggéré que les images ont probablement été créées à l'aide de Grok, bien que l'attribution définitive reste difficile en raison de la nature évolutive du contenu généré par l'IA et de la difficulté à retracer son origine précise.
"Notre principale préoccupation est la protection des enfants", a déclaré Susie Hargreaves OBE, PDG de l'IWF, dans un communiqué de presse. "Les progrès rapides de la technologie de l'IA présentent de nouveaux défis dans ce domaine, et nous nous efforçons d'adapter nos méthodes pour identifier et supprimer efficacement ce type de contenu."
xAI n'a pas encore publié de déclaration officielle concernant les conclusions de l'IWF. Cependant, des sources proches des processus internes de l'entreprise ont indiqué que xAI enquêtait sur ces allégations et examinait ses protocoles de sécurité afin d'empêcher la génération de contenus préjudiciables. Grok, qui est actuellement disponible pour les abonnés à X Premium+, est un grand modèle linguistique conçu pour générer du texte, traduire des langues, écrire différents types de contenu créatif et répondre à des questions de manière informative. Il est entraîné sur un ensemble massif de données textuelles et de code, ce qui lui permet d'effectuer un large éventail de tâches.
L'incident souligne les préoccupations croissantes concernant l'utilisation abusive potentielle de la technologie de l'IA, en particulier dans la création de matériel pédopornographique. Les experts dans ce domaine ont averti que les modèles d'IA pourraient être exploités pour générer des images réalistes et facilement disponibles, ce qui constitue une menace importante pour la sécurité des enfants.
"C'est un signal d'alarme pour l'ensemble de l'industrie de l'IA", a déclaré le Dr Joanna Bryson, professeur d'éthique et de technologie à la Hertie School de Berlin. "Les développeurs doivent donner la priorité à la sécurité et mettre en œuvre des mesures de protection robustes pour empêcher que leurs modèles ne soient utilisés à des fins malveillantes. Cela comprend l'investissement dans des méthodes de détection avancées et la collaboration avec des organisations comme l'IWF pour faire face à cette menace en constante évolution."
La découverte de l'IWF souligne la nécessité de poursuivre la recherche et le développement en matière de détection de contenu IA. Les méthodes actuelles reposent souvent sur l'identification de schémas ou d'anomalies spécifiques dans les images, mais les modèles d'IA sont en constante évolution, ce qui rend difficile de garder une longueur d'avance. L'organisation travaille avec des entreprises technologiques et des forces de l'ordre pour développer des outils plus sophistiqués permettant d'identifier et de supprimer le matériel pédopornographique généré par l'IA.
L'enquête sur les images générées par Grok est en cours. L'IWF travaille avec les autorités compétentes pour déterminer la ligne de conduite appropriée. L'incident est susceptible d'alimenter davantage le débat sur la réglementation de la technologie de l'IA et sur les responsabilités des développeurs dans la prévention de son utilisation abusive. Les conclusions mettent également la pression sur xAI pour qu'elle démontre son engagement en matière de sécurité et qu'elle mette en œuvre des mesures efficaces pour empêcher la génération de contenus préjudiciables par Grok à l'avenir.
Discussion
Join the conversation
Be the first to comment