Laut einer Ankündigung auf X wird Elon Musks KI-Tool Grok in Gerichtsbarkeiten, in denen solche Veränderungen illegal sind, keine Fotos von echten Personen mehr so bearbeiten können, dass sie in freizügiger Kleidung dargestellt werden. Die Entscheidung folgt auf weitverbreitete Bedenken hinsichtlich des Potenzials für sexualisierte KI-Deepfakes, die von der Plattform generiert werden.
X, die Social-Media-Plattform im Besitz von Musk, erklärte, dass sie "technologische Maßnahmen ergriffen hat, um zu verhindern, dass das Grok-Konto die Bearbeitung von Bildern von echten Personen in freizügiger Kleidung ermöglicht". Der Schritt erfolgt nach Kritik und behördlicher Prüfung des potenziellen Missbrauchs des KI-Tools.
Die britische Regierung reagierte auf die Änderung und bezeichnete sie als "Bestätigung" ihrer Forderungen an X, Grok zu kontrollieren. Die Regulierungsbehörde Ofcom bezeichnete die Entwicklung als "willkommen", betonte jedoch, dass ihre Untersuchung, ob die Plattform gegen britische Gesetze verstoßen hat, "weiterhin andauert". Ofcom erklärte: "Wir arbeiten rund um die Uhr daran, dies voranzutreiben und Antworten darauf zu erhalten, was schiefgelaufen ist und was getan wird, um das Problem zu beheben."
Technologieministerin Liz Kendall begrüßte die Änderung ebenfalls, wies jedoch darauf hin, dass sie "erwarte, dass die Fakten durch die laufende Untersuchung von Ofcom vollständig und stichhaltig festgestellt werden".
Grok, das 2023 auf X eingeführt wurde, ist ein KI-Tool, das entwickelt wurde, um verschiedene Arten von Inhalten zu generieren, einschließlich Bildbearbeitung. Die spezifischen technologischen Maßnahmen, die von X implementiert wurden, um die Erstellung von Deepfakes mit freizügiger Kleidung zu verhindern, wurden nicht offengelegt. Solche Maßnahmen umfassen jedoch häufig eine Kombination aus Bilderkennungsalgorithmen, Inhaltsfiltern und Benutzermeldemechanismen. Bilderkennungsalgorithmen können trainiert werden, um Bilder zu identifizieren und zu kennzeichnen, die Nacktheit oder anzügliche Inhalte darstellen. Inhaltsfilter können dann verwendet werden, um die Generierung oder Weitergabe solcher Bilder zu blockieren. Benutzermeldemechanismen ermöglichen es Benutzern, potenziell unangemessene Inhalte zur Überprüfung durch das Moderationsteam von X zu melden.
Der Vorfall verdeutlicht die wachsenden Bedenken hinsichtlich des Potenzials von KI, zur Erstellung von Deepfakes und anderen Formen manipulierter Inhalte verwendet zu werden. Diese Bedenken haben zu einer verstärkten behördlichen Kontrolle von KI-Plattformen und zu Forderungen nach mehr Transparenz und Rechenschaftspflicht bei der Entwicklung und dem Einsatz von KI-Technologien geführt.
Aktivisten und Opfer haben Bedenken geäußert, dass die Änderung zu spät kommt, um den Schaden, der durch die Technologie bereits verursacht wurde, ungeschehen zu machen. Die Journalistin und Aktivistin Jess Davies, die in der Ankündigung von X nicht direkt zitiert wurde, hat sich lautstark über das Potenzial von KI-Deepfakes geäußert, die zur Belästigung und Einschüchterung von Einzelpersonen eingesetzt werden können.
Discussion
Join the conversation
Be the first to comment