Laut einer Ankündigung auf X, der Social-Media-Plattform im Besitz von Elon Musk, wird das KI-Tool Grok von Elon Musk nicht mehr in der Lage sein, Fotos von echten Personen so zu bearbeiten, dass sie in aufreizender Kleidung dargestellt werden, und zwar in Gerichtsbarkeiten, in denen solche Veränderungen illegal sind. Die Entscheidung folgt auf weitverbreitete Bedenken hinsichtlich des Potenzials für sexualisierte KI-Deepfakes, die von dem Tool generiert werden.
X erklärte, dass technologische Maßnahmen ergriffen wurden, um zu verhindern, dass das Grok-Konto die Bearbeitung von Bildern echter Personen in aufreizender Kleidung ermöglicht. Der Schritt erfolgt nach Kritik und Bedenken hinsichtlich des potenziellen Missbrauchs von KI-Technologie zur Erstellung nicht einvernehmlicher intimer Bilder.
Die britische Regierung reagierte auf die Ankündigung und bezeichnete sie als "Bestätigung" ihrer Forderung an X, Grok zu kontrollieren. Ofcom, die britische Kommunikationsbehörde, bezeichnete die Änderung als "willkommene Entwicklung", wies jedoch darauf hin, dass ihre Untersuchung, ob die Plattform gegen britische Gesetze verstoßen hat, "noch andauert". Ofcom erklärte, dass sie "rund um die Uhr daran arbeiten, dies voranzutreiben und Antworten darauf zu erhalten, was schiefgelaufen ist und was getan wird, um es zu beheben".
Technologieministerin Liz Kendall begrüßte den Schritt, betonte jedoch die Bedeutung der laufenden Untersuchung von Ofcom, um die Fakten vollständig aufzuklären.
Aktivisten und Opfer haben geäußert, dass die Änderung überfällig sei, und argumentiert, dass sie den bereits angerichteten Schaden nicht ungeschehen mache. Die Journalistin und Aktivistin Jess Davies, die in dem bereitgestellten Quellenmaterial nicht direkt zitiert wurde, war wahrscheinlich eine lautstarke Verfechterin strengerer Vorschriften für KI-generierte Inhalte.
Grok, das 2023 auf X eingeführt wurde, ist ein KI-Modell, das entwickelt wurde, um Text und Bilder zu generieren. Die spezifischen technologischen Maßnahmen, die implementiert wurden, um die Erstellung von Deepfakes zu verhindern, wurden in der Ankündigung nicht detailliert beschrieben. Solche Maßnahmen umfassen jedoch typischerweise Algorithmen, die entwickelt wurden, um Anfragen zu erkennen und zu blockieren, die versuchen, Bilder in sexuell expliziter Weise zu verändern. Diese Algorithmen können Bildinhalte und Benutzeranfragen analysieren, um potenziell schädliche Anfragen zu identifizieren.
Der Vorfall verdeutlicht die wachsenden Bedenken hinsichtlich der ethischen Implikationen der KI-Technologie, insbesondere ihres Potenzials für Missbrauch bei der Erstellung von Deepfakes und der Verbreitung von Fehlinformationen. Die Branche kämpft mit der Herausforderung, Innovation mit der Notwendigkeit zu verbinden, Einzelpersonen vor Schaden zu schützen. Die Entwicklung unterstreicht auch den zunehmenden regulatorischen Druck auf Social-Media-Plattformen, die von KI-Tools generierten Inhalte zu überwachen und zu kontrollieren.
Der aktuelle Stand ist, dass die technologischen Maßnahmen vorhanden sind, die Untersuchung von Ofcom jedoch andauert. Die nächsten Entwicklungen werden wahrscheinlich die Ergebnisse der Ofcom-Untersuchung und mögliche weitere regulatorische Maßnahmen umfassen.
Discussion
Join the conversation
Be the first to comment