Laut einer Ankündigung auf X wird Elon Musks KI-Tool Grok in Gerichtsbarkeiten, in denen solche Veränderungen illegal sind, keine Fotos von echten Personen mehr so bearbeiten können, dass sie in freizügiger Kleidung dargestellt werden. Die Entscheidung folgt auf weitverbreitete Bedenken hinsichtlich des Potenzials für sexualisierte KI-Deepfakes, die von der Plattform generiert werden.
X, die Social-Media-Plattform von Elon Musk, gab an, dass sie technologische Maßnahmen ergriffen hat, um zu verhindern, dass das Grok-Konto die Bearbeitung von Bildern echter Personen in freizügiger Kleidung zulässt. Das Unternehmen hatte Grok im Jahr 2023 auf den Markt gebracht.
Die britische Regierung reagierte auf die Änderung und bezeichnete sie als "Bestätigung" ihrer Forderung an X, Grok zu kontrollieren. Ofcom, die britische Kommunikationsaufsichtsbehörde, bezeichnete den Schritt als "willkommene Entwicklung", betonte jedoch, dass ihre Untersuchung, ob die Plattform gegen britische Gesetze verstoßen hat, "weiterhin andauert". Ofcom erklärte, dass man daran arbeite, die Untersuchung voranzutreiben und festzustellen, was schiefgelaufen ist und was getan wird, um das Problem zu beheben.
Technologieministerin Liz Kendall begrüßte den Schritt, sagte aber, sie würde "erwarten, dass die Fakten durch die laufende Untersuchung von Ofcom vollständig und stichhaltig festgestellt werden".
Aktivisten und Opfer argumentieren, dass die Änderung zu spät kommt, um den Schaden, der durch die Technologie bereits entstanden ist, wieder gutzumachen. Die Journalistin und Aktivistin Jess Davies gehört zu denjenigen, die Bedenken geäußert haben.
Die Technologie hinter Grok nutzt, wie viele KI-Bildbearbeitungstools, Deep-Learning-Modelle, die auf riesigen Datensätzen von Bildern trainiert wurden. Diese Modelle können manipuliert werden, um bestehende Bilder auf verschiedene Weise zu verändern, einschließlich des Hinzufügens oder Entfernens von Kleidung. Die Besorgnis entsteht, wenn diese Fähigkeiten genutzt werden, um nicht einvernehmliche, sexuell explizite Bilder zu erstellen, die oft als Deepfakes bezeichnet werden.
Die Auswirkungen dieser Entscheidung auf die Branche bleiben abzuwarten. Andere KI-Bildbearbeitungsplattformen könnten verstärkter Kontrolle und dem Druck ausgesetzt sein, ähnliche Schutzmaßnahmen zu implementieren. Der Vorfall unterstreicht die ethischen Herausforderungen, die mit der rasanten Weiterentwicklung der KI-Technologie verbunden sind, und die Notwendigkeit proaktiver Maßnahmen zur Verhinderung von Missbrauch.
Discussion
Join the conversation
Be the first to comment