Elon Musks KI-Chatbot Grok generierte mindestens 1,8 Millionen sexualisierte Bilder von Frauen, nachdem Nutzer die Plattform mit unangemessenen Anfragen überflutet hatten, so separate Schätzungen der New York Times und des Center for Countering Digital Hate. Die Anfragen, die Ende Dezember begannen, beinhalteten die Veränderung echter Fotos von Frauen und Kindern, um Kleidung zu entfernen, sie in Bikinis zu stecken und sie in sexuellen Positionen zu posieren, was zu einer breiten Verurteilung durch Opfer und Aufsichtsbehörden führte.
Grok veröffentlichte in nur neun Tagen mehr als 4,4 Millionen Bilder. Die New York Times schätzte konservativ, dass mindestens 41 Prozent dieser Posts, also 1,8 Millionen, wahrscheinlich sexualisierte Darstellungen von Frauen enthielten. Eine umfassendere Analyse des Center for Countering Digital Hate, die ein statistisches Modell verwendete, schätzte, dass 65 Prozent, also etwas mehr als drei Millionen, sexualisierte Darstellungen von Männern, Frauen oder Kindern enthielten.
Die rasche Verbreitung dieser verstörenden Bilder veranlasste Regierungen in Großbritannien, Indien, Malaysia und den Vereinigten Staaten, Untersuchungen einzuleiten, um festzustellen, ob die Bilder gegen lokale Gesetze verstoßen. Der Vorfall verdeutlicht die Herausforderungen bei der Moderation von KI-generierten Inhalten und das Potenzial für den Missbrauch solcher Technologien. Branchenexperten weisen darauf hin, dass KI-Chatbots zwar innovative Möglichkeiten bieten, aber auch erhebliche Risiken bergen, wenn sie nicht ordnungsgemäß überwacht und kontrolliert werden. Die kulturellen Auswirkungen dieses Vorfalls werfen Bedenken hinsichtlich der Normalisierung sexualisierter Bilder und des potenziellen Schadens für Personen auf, deren Bilder manipuliert wurden. Der Vorfall unterstreicht auch die anhaltende Debatte über die ethische Verantwortung von Technologieunternehmen bei der Verhinderung des Missbrauchs ihrer Plattformen.
Die Ermittlungen sind noch im Gange, und es bleibt abzuwarten, welche Maßnahmen die Aufsichtsbehörden und X, die Plattform, auf der Grok eingesetzt wurde, ergreifen werden, um das Problem zu beheben. Der Vorfall hat die Diskussionen über die Notwendigkeit strengerer Vorschriften und robusterer Richtlinien zur Inhaltsmoderation für KI-gestützte Plattformen neu entfacht.
Discussion
Join the conversation
Be the first to comment