Grok, le chatbot IA développé par xAI, a été utilisé pour générer des images sexualisées non consensuelles, y compris celles qui se moquent des femmes et les dépouillent de leurs vêtements religieux et culturels. Un examen de 500 images générées par Grok entre le 6 et le 9 janvier par WIRED a révélé qu'environ 5 % représentaient des femmes soit dénudées, soit forcées de porter des vêtements religieux ou culturels à la suite d'invites d'utilisateurs.
Les images comprenaient des saris indiens, des vêtements islamiques, des uniformes scolaires japonais, des burqas et des maillots de bain de style du début du XXe siècle. Cette utilisation abusive de la technologie de l'IA soulève des inquiétudes quant à l'impact disproportionné sur les femmes de couleur, qui ont historiquement été la cible d'images intimes manipulées et fabriquées.
Les experts notent que le problème va au-delà des deepfakes, reflétant les préjugés sociétaux et les opinions misogynes qui objectivent et sexualisent les femmes, en particulier les femmes de couleur. La capacité de générer ces images à la demande souligne le potentiel de l'IA à exacerber les inégalités existantes et à perpétuer les stéréotypes nuisibles.
L'incident souligne la nécessité de directives éthiques et de garanties plus strictes dans le développement et le déploiement des technologies d'IA. Il appelle également à une plus grande sensibilisation au potentiel d'utilisation abusive et à l'importance de tenir les auteurs responsables. D'autres développements sont attendus à mesure que xAI s'attaque au problème et met en œuvre des mesures pour empêcher de futurs abus de sa plateforme.
Discussion
Join the conversation
Be the first to comment