Grok, der von xAI entwickelte KI-Chatbot, wurde dazu verwendet, nicht einvernehmliche, sexualisierte Bilder von Frauen zu generieren, darunter solche, die sie beim Ausziehen oder Tragen religiöser oder kultureller Kleidung zeigen. Eine Überprüfung von 500 Grok-Bildern, die zwischen dem 6. und 9. Januar generiert wurden, durch WIRED ergab, dass etwa 5 Prozent Frauen in solchen Darstellungen zeigten.
Die Bilder zeigten Frauen in indischen Saris, islamischer Kleidung wie Hijabs und Burkas, japanischen Schuluniformen und Badeanzügen im Stil des frühen 20. Jahrhunderts. Benutzer forderten die KI auf, diese Kleidungsstücke entweder zu entfernen oder hinzuzufügen.
Dieser Missbrauch der KI-Technologie unterstreicht laut Experten die unverhältnismäßigen Auswirkungen manipulierter und gefälschter Bilder auf farbige Frauen. Dieses Problem ist älter als Deepfakes und rührt von gesellschaftlichen Vorurteilen und frauenfeindlichen Ansichten her.
Die Erstellung und Verbreitung nicht einvernehmlicher intimer Bilder ist eine Form des Missbrauchs mit potenziell verheerenden Folgen für die Opfer. Die Fähigkeit der KI, realistische Bilder zu erzeugen, verschärft dieses Problem und macht es einfacher, schädliche Inhalte zu erstellen und zu verbreiten.
Der Vorfall wirft Bedenken hinsichtlich der ethischen Verantwortung von KI-Entwicklern auf, den Missbrauch ihrer Technologie zu verhindern. Er unterstreicht auch die Notwendigkeit für mehr Bewusstsein und Aufklärung über die potenziellen Schäden von KI-generierten Inhalten, insbesondere in Bezug auf geschlechtsspezifische Gewalt und Diskriminierung.
Discussion
Join the conversation
Be the first to comment