Laut einer Ankündigung auf X wird Elon Musks KI-Tool Grok in Gerichtsbarkeiten, in denen solche Veränderungen illegal sind, keine Fotos von echten Personen mehr so bearbeiten können, dass sie in freizügiger Kleidung dargestellt werden. Die Entscheidung folgt auf weitverbreitete Bedenken hinsichtlich des Potenzials für sexualisierte KI-Deepfakes, die von der Plattform generiert werden.
X, die Social-Media-Plattform im Besitz von Musk, erklärte, dass sie technologische Maßnahmen ergriffen habe, um zu verhindern, dass der Grok-Account die Bearbeitung von Bildern echter Personen in freizügiger Kleidung zulässt. Der Schritt erfolgt nach Kritik und behördlicher Prüfung des potenziellen Missbrauchs des KI-Tools.
Die britische Regierung reagierte auf die Änderung und bezeichnete sie als "Bestätigung" für ihre früheren Forderungen an X, Grok zu kontrollieren. Die Aufsichtsbehörde Ofcom bezeichnete die Entwicklung als "willkommen", betonte jedoch, dass ihre Untersuchung, ob die Plattform gegen britische Gesetze verstoßen habe, "weiterhin andauert". Ofcom erklärte: "Wir arbeiten rund um die Uhr daran, dies voranzutreiben und Antworten darauf zu erhalten, was schiefgelaufen ist und was getan wird, um das Problem zu beheben."
Technologieministerin Liz Kendall begrüßte den Schritt ebenfalls, wies jedoch darauf hin, dass sie "erwarte, dass die Fakten durch die laufende Untersuchung von Ofcom vollständig und stichhaltig festgestellt werden".
Grok, das 2023 auf X eingeführt wurde, ist ein KI-Tool, das entwickelt wurde, um verschiedene Arten von Inhalten zu generieren, einschließlich Bildbearbeitung. Die spezifischen technologischen Maßnahmen, die X implementiert hat, um die Erstellung von Deepfakes zu verhindern, wurden in der Ankündigung nicht detailliert beschrieben. Solche Maßnahmen umfassen jedoch typischerweise Algorithmen, die entwickelt wurden, um die Manipulation von Bildern in einer Weise zu erkennen und zu verhindern, die gegen die Richtlinien der Plattform und die gesetzlichen Bestimmungen verstößt.
Aktivisten und Opfer argumentieren, dass die Änderung überfällig ist und den Schaden, der durch die Technologie bereits entstanden ist, nicht ungeschehen macht. Die Journalistin und Aktivistin Jess Davies, die in dem bereitgestellten Quellenmaterial nicht direkt zitiert wurde, gehörte wahrscheinlich zu den Kritikern des anfänglichen Mangels an Schutzmaßnahmen der Plattform.
Der Vorfall verdeutlicht die wachsenden Bedenken hinsichtlich KI-generierter Inhalte und des Potenzials für deren Missbrauch, insbesondere bei der Erstellung von Deepfakes. Die Branche kämpft mit der Herausforderung, KI-Tools zu entwickeln und gleichzeitig deren Verwendung für böswillige Zwecke zu verhindern. Auch die regulatorische Landschaft entwickelt sich weiter, wobei Regierungen und Aufsichtsbehörden weltweit Maßnahmen zur Bewältigung der mit KI-generierten Inhalten verbundenen Risiken in Erwägung ziehen.
Der aktuelle Stand ist, dass X die technologischen Maßnahmen implementiert hat und die Untersuchung von Ofcom noch andauert. Die nächsten Entwicklungen werden wahrscheinlich die Ergebnisse der Ofcom-Untersuchung und eine weitere Überprüfung der KI-Sicherheitsmaßnahmen von X beinhalten.
Discussion
Join the conversation
Be the first to comment