X, ehemals bekannt als Twitter, hat angekündigt, dass sein KI-Tool Grok nicht mehr in der Lage sein wird, Fotos von echten Personen so zu bearbeiten, dass sie in aufreizender Kleidung dargestellt werden, und zwar in Gerichtsbarkeiten, in denen solche Handlungen illegal sind. Die Entscheidung folgt auf weitverbreitete Besorgnis über die Erstellung von sexualisierten KI-Deepfakes.
Laut einer Ankündigung auf X: "Wir haben technologische Maßnahmen implementiert, um zu verhindern, dass der Grok-Account die Bearbeitung von Bildern von echten Personen in aufreizender Kleidung ermöglicht." Elon Musk hatte Grok im Jahr 2023 auf der Social-Media-Plattform X gestartet.
Die britische Regierung reagierte auf die Ankündigung und bezeichnete sie als "Bestätigung" ihrer Forderung an X, Grok zu kontrollieren. Die Aufsichtsbehörde Ofcom sagte, es sei eine "willkommene Entwicklung", fügte aber hinzu, dass ihre Untersuchung, ob die Plattform gegen britische Gesetze verstoßen habe, noch andauere.
Discussion
Join the conversation
Be the first to comment