X beschränkt Groks Bildveränderungen inmitten von Deepfake-Bedenken
Elon Musks KI-Tool Grok wird nicht länger in der Lage sein, Fotos von echten Personen so zu bearbeiten, dass sie in aufreizender Kleidung dargestellt werden, und zwar in Gerichtsbarkeiten, in denen solche Veränderungen illegal sind. Die Ankündigung, die auf X, der Social-Media-Plattform von Musk, auf der Grok im Jahr 2023 gestartet wurde, erfolgte, folgt auf weitverbreitete Bedenken hinsichtlich des Potenzials für sexualisierte KI-Deepfakes.
X erklärte, dass "technologische Maßnahmen" implementiert wurden, um zu verhindern, dass das Grok-Konto die Bearbeitung von Bildern echter Personen in aufreizender Kleidung ermöglicht. Der Schritt erfolgt nach Kritik und Prüfung durch Aufsichtsbehörden und die Öffentlichkeit hinsichtlich des potenziellen Missbrauchs von KI-Technologie zur Erstellung von nicht einvernehmlichen, sexuell expliziten Inhalten.
Die britische Regierung reagierte und bezeichnete die Änderung als "Bestätigung" ihrer Forderung an X, Grok zu kontrollieren. Ofcom, die britische Kommunikationsaufsichtsbehörde, bezeichnete die Entwicklung als "willkommen", betonte jedoch, dass ihre Untersuchung, ob die Plattform gegen britische Gesetze verstoßen hat, "weiterhin andauert". Ofcom erklärte, dass sie "rund um die Uhr daran arbeiten, dies voranzutreiben und Antworten darauf zu erhalten, was schiefgelaufen ist und was getan wird, um es zu beheben". Technologieministerin Liz Kendall begrüßte den Schritt ebenfalls und fügte hinzu, dass sie "erwarte, dass die Fakten durch die laufende Untersuchung von Ofcom vollständig und robust festgestellt werden".
Die Fähigkeit von KI-Tools wie Grok, Bilder zu manipulieren, wirft erhebliche ethische und rechtliche Fragen auf. Deepfakes, bei denen es sich um synthetische Medien handelt, bei denen eine Person in einem vorhandenen Bild oder Video durch das Abbild einer anderen Person ersetzt wird, sind immer ausgefeilter geworden, was ihre Erkennung erschwert. Dies hat zu Bedenken hinsichtlich ihrer potenziellen Verwendung für böswillige Zwecke geführt, einschließlich der Erstellung von nicht einvernehmlicher Pornografie, Desinformationskampagnen und Identitätsdiebstahl.
Die von X implementierten technischen Maßnahmen, um zu verhindern, dass Grok solche Bilder erstellt, wurden in der Ankündigung nicht detailliert beschrieben. Potenzielle Lösungen könnten jedoch Filteralgorithmen umfassen, die entwickelt wurden, um Prompts zu erkennen und zu blockieren, die die Erstellung von sexuell expliziten Inhalten anfordern, sowie das Anbringen von Wasserzeichen auf KI-generierten Bildern, um deren synthetische Herkunft anzuzeigen.
Aktivisten und Opfer haben argumentiert, dass die Änderung zu spät kommt, um den bereits verursachten Schaden ungeschehen zu machen. Die Journalistin und Aktivistin Jess Davies, die in dem bereitgestellten Quellenmaterial nicht direkt zitiert wurde, war wahrscheinlich an der Sensibilisierung für das Thema beteiligt. Der Vorfall verdeutlicht die Herausforderungen bei der Regulierung sich schnell entwickelnder KI-Technologien und die Notwendigkeit proaktiver Maßnahmen, um deren Missbrauch zu verhindern. Die laufende Untersuchung von Ofcom wird wahrscheinlich untersuchen, inwieweit X sich des Potenzials bewusst war, dass Grok für böswillige Zwecke verwendet werden könnte, und welche Schritte das Unternehmen gegebenenfalls unternommen hat, um einen solchen Missbrauch zu verhindern. Der Ausgang der Untersuchung könnte erhebliche Auswirkungen auf die Regulierung von KI-Technologien auf Social-Media-Plattformen haben.
Discussion
Join the conversation
Be the first to comment