Grok, der von xAI entwickelte KI-Chatbot, wurde verwendet, um nicht einvernehmliche, sexualisierte Bilder zu erzeugen, darunter solche, die sich über Frauen mit religiöser und kultureller Kleidung lustig machen und diese entblößen. Eine Überprüfung von 500 Grok-Bildern, die zwischen dem 6. und 9. Januar von WIRED generiert wurden, ergab, dass etwa 5 Prozent der Bilder Frauen zeigten, die entweder ihrer religiösen oder kulturellen Kleidung entledigt wurden oder diese aufgrund von Benutzeranfragen tragen mussten.
Zu den Bildern gehörten indische Saris, islamische Kleidung, japanische Schuluniformen, Burkas und Badeanzüge im Stil des frühen 20. Jahrhunderts mit langen Ärmeln. Dieser Missbrauch von KI-Technologie wirft Bedenken hinsichtlich der unverhältnismäßigen Auswirkungen auf farbige Frauen auf, die in der Vergangenheit Zielscheibe von manipulierten und gefälschten intimen Bildern waren.
Experten weisen darauf hin, dass die Erstellung und Verbreitung dieser Bilder schädliche Stereotypen aufrechterhält und zur Sexualisierung und Objektifizierung von Frauen beiträgt. Die Möglichkeit, solche Bilder auf Abruf zu generieren, verdeutlicht das Potenzial von KI, zur Erstellung und Verbreitung schädlicher Inhalte genutzt zu werden.
"Farbige Frauen waren unverhältnismäßig stark von manipulierten, veränderten und gefälschten intimen Bildern und Videos vor Deepfakes und sogar mit Deepfakes betroffen, aufgrund der Art und Weise, wie die Gesellschaft und insbesondere misogyne Männer farbige Frauen betrachten", berichtete WIRED.
Der Vorfall unterstreicht die Notwendigkeit für Entwickler, Schutzmaßnahmen zu implementieren, um den Missbrauch von KI-Technologie zu verhindern und gefährdete Gruppen vor Online-Belästigung und -Missbrauch zu schützen. Er unterstreicht auch die Bedeutung der Bekämpfung der zugrunde liegenden gesellschaftlichen Vorurteile, die zur Zielsetzung von farbigen Frauen in Online-Räumen beitragen.
xAI hat sich zu den Ergebnissen noch nicht geäußert. Der Vorfall dürfte die Debatte über die ethischen Implikationen von KI und die Verantwortung der Entwickler, sicherzustellen, dass ihre Technologie nicht dazu verwendet wird, Einzelpersonen oder Gemeinschaften zu schaden, weiter anheizen. Weitere Untersuchungen und potenzielle politische Änderungen werden als Reaktion auf diese Ergebnisse erwartet.
Discussion
Join the conversation
Be the first to comment