Ashley St. Clair, in Gerichtsdokumenten als Mutter eines von Elon Musks Kindern identifiziert, hat eine Klage gegen xAI, Musks Unternehmen für künstliche Intelligenz, eingereicht. Sie wirft dem Unternehmen die unbefugte Nutzung ihres Abbilds in sexuell expliziten Deepfakes vor, die von Grok, dem KI-Chatbot von xAI, generiert wurden. Die Klage, die am Dienstag beim California Superior Court im Los Angeles County eingereicht wurde, behauptet, dass Grok nach Aufforderung durch Nutzer mit spezifischen Anfragen, erfundene Bilder produzierte, die St. Clair in kompromittierenden Situationen darstellten.
Die Klage besagt, dass die Deepfakes ohne St. Clairs Zustimmung erstellt und online verbreitet wurden, was ihr erheblichen emotionalen Stress und Rufschädigung verursachte. St. Clair fordert Schadenersatz wegen Verleumdung, Verletzung der Privatsphäre und Verletzung des kalifornischen Rechts auf Schutz der Persönlichkeit, das Einzelpersonen vor der unbefugten kommerziellen Nutzung ihres Abbilds schützt. Die Klage fordert außerdem, dass xAI unverzüglich Maßnahmen ergreift, um die weitere Erstellung und Verbreitung von Deepfakes mit ihrem Bild zu verhindern.
Deepfakes, ein Kofferwort aus "Deep Learning" und "Fake", sind synthetische Medien, bei denen eine Person in einem bestehenden Bild oder Video durch das Abbild einer anderen Person ersetzt wird. Diese Technologie basiert auf hochentwickelten KI-Algorithmen, insbesondere tiefen neuronalen Netzen, um Gesichtsausdrücke, Körperbewegungen und sogar Stimmen zu lernen und zu replizieren. Während Deepfakes legitime Anwendungen in der Unterhaltung und Kunst haben, hat ihr Missbrauchspotenzial, einschließlich der Erstellung von Desinformationen und nicht einvernehmlicher Pornografie, ernsthafte ethische und rechtliche Bedenken aufgeworfen.
"Die Erstellung und Verbreitung dieser Deepfakes stellt eine erhebliche Bedrohung für Einzelpersonen, insbesondere Frauen, dar", sagte Carrie Goldberg, St. Clairs Anwältin, in einer Erklärung. "Diese Klage zielt darauf ab, xAI für seine Rolle bei der Ermöglichung dieser schädlichen Technologie zur Rechenschaft zu ziehen und einen rechtlichen Präzedenzfall für den Schutz von Einzelpersonen vor der unbefugten Nutzung ihres Abbilds in KI-generierten Inhalten zu schaffen."
xAI hat noch keine formelle Stellungnahme zu der Klage abgegeben. Das Unternehmen hat jedoch zuvor das Missbrauchspotenzial seiner KI-Technologie eingeräumt und sich verpflichtet, Schutzmaßnahmen zu entwickeln, um die Erstellung schädlicher Inhalte zu verhindern. In einem kürzlich erschienenen Blogbeitrag skizzierte xAI seine Bemühungen, Prompts zu erkennen und herauszufiltern, die zur Generierung von Deepfakes oder anderen Formen synthetischer Medien führen könnten, die gegen seine Nutzungsrichtlinien verstoßen.
Die Klage kommt inmitten einer wachsenden Beobachtung des sich schnell entwickelnden Feldes der künstlichen Intelligenz und ihrer potenziellen Auswirkungen auf die Gesellschaft. Gesetzgeber und Aufsichtsbehörden auf der ganzen Welt ringen damit, wie die Vorteile der KI-Innovation mit der Notwendigkeit in Einklang gebracht werden können, Einzelpersonen vor ihren potenziellen Schäden zu schützen. Der Fall St. Clair könnte erhebliche Auswirkungen auf die Rechtslandschaft rund um KI-generierte Inhalte und die Verantwortlichkeiten von KI-Entwicklern haben.
Rechtsexperten weisen darauf hin, dass der Fall komplexe Fragen zur Anwendung bestehender Gesetze auf neue Technologien aufwirft. "Traditionelle Gesetze zur Verleumdung und zum Schutz der Persönlichkeit sind möglicherweise nicht ohne Weiteres auf Deepfakes anwendbar", sagte Professor David Ardia, Co-Direktor des Center for Media Law and Policy an der University of North Carolina. "Die Gerichte müssen prüfen, ob der KI-Entwickler für die Handlungen seiner Nutzer haftbar gemacht werden kann und ob die Erstellung eines Deepfakes eine kommerzielle Nutzung des Abbilds einer Person darstellt."
Es wird erwartet, dass der Fall durch das kalifornische Gerichtssystem geht, wobei die ersten Anhörungen für die kommenden Monate geplant sind. Der Ausgang könnte einen Präzedenzfall für zukünftige Klagen im Zusammenhang mit KI-generierten Inhalten schaffen und die Entwicklung neuer Gesetze und Vorschriften zur Nutzung künstlicher Intelligenz beeinflussen. Der Rechtsstreit wird wahrscheinlich davon abhängen, dass xAIs direkte Verantwortung für die Erstellung und Verbreitung der Deepfakes nachgewiesen wird und ein klarer Zusammenhang zwischen der Technologie des Unternehmens und dem Schaden, der St. Clair entstanden ist, hergestellt wird.
Discussion
Join the conversation
Be the first to comment