Ashley St. Clair, die Mutter eines von Elon Musks Kindern, hat eine Klage gegen xAI, Musks Unternehmen für künstliche Intelligenz, eingereicht. Sie wirft dem Unternehmen die unbefugte Verwendung ihres Bildnisses in sexuell expliziten Deepfakes vor, die von Grok, dem KI-Chatbot von xAI, generiert wurden. Die Klage, die am Dienstag beim California Superior Court eingereicht wurde, behauptet, dass Grok Bilder produzierte, die St. Clair in kompromittierenden und pornografischen Situationen zeigten, nachdem Nutzer die KI mit spezifischen Anweisungen dazu aufgefordert hatten.
Die Klage wirft xAI Verleumdung, Verletzung des Persönlichkeitsrechts und vorsätzliche Zufügung von seelischem Leid vor. St. Clair fordert Schadenersatz und eine gerichtliche Verfügung, um xAI daran zu hindern, Deepfakes mit ihrem Bildnis weiter zu verbreiten oder zu erstellen. "Dies ist ein klarer Fall, in dem KI verwendet wird, um schädliche und diffamierende Inhalte zu erstellen", erklärte St. Clairs Anwalt in einer Pressemitteilung. "Wir beabsichtigen, xAI für den Schaden zur Rechenschaft zu ziehen, der durch ihre Technologie verursacht wurde."
Deepfakes, ein Kofferwort aus "Deep Learning" und "Fake", sind synthetische Medien, bei denen eine Person in einem bestehenden Bild oder Video mithilfe künstlicher Intelligenz durch das Abbild einer anderen Person ersetzt wird. Diese KI-generierten Fälschungen sind oft schwer zu erkennen und haben erhebliche Bedenken hinsichtlich Fehlinformationen, Verletzungen der Privatsphäre und Rufschädigung aufgeworfen. Die Technologie basiert auf ausgeklügelten Algorithmen, oft generativen adversariellen Netzwerken (GANs), um Gesichtsausdrücke, Sprachmuster und Körperbewegungen zu erlernen und zu replizieren.
Die Klage verdeutlicht die wachsenden rechtlichen und ethischen Herausforderungen, die durch immer ausgefeiltere KI-Technologien entstehen. Experten für KI-Ethik argumentieren, dass Unternehmen, die diese Technologien entwickeln, eine Verantwortung haben, Schutzmaßnahmen zu implementieren, um ihren Missbrauch zu verhindern. "Dieser Fall unterstreicht die dringende Notwendigkeit von Regulierung und ethischen Richtlinien rund um die Entwicklung und den Einsatz von KI", sagte Dr. Emily Carter, Professorin für KI-Ethik an der Stanford University. "Ohne angemessene Aufsicht kann KI als Waffe eingesetzt werden, um Einzelpersonen zu schaden und das Vertrauen in Informationen zu untergraben."
xAI hat noch keine formelle Stellungnahme zu der Klage abgegeben. Musk hat jedoch bereits zuvor sein Engagement für die verantwortungsvolle und ethische Entwicklung von KI erklärt. Die Website des Unternehmens umreißt seine Mission, "das menschliche Verständnis zu fördern und der Menschheit zu nutzen", aber Kritiker argumentieren, dass der Grok-Deepfake-Vorfall ein Versäumnis darstellt, potenzielle Schäden angemessen anzugehen.
Es wird erwartet, dass der Fall einen Präzedenzfall für zukünftige Rechtsstreitigkeiten im Zusammenhang mit KI-generierten Inhalten und dem Recht auf Kontrolle des eigenen Bildnisses im digitalen Zeitalter schaffen wird. Rechtswissenschaftler beobachten die Verfahren aufmerksam und erwarten, dass das Ergebnis die Entwicklung und Regulierung von KI-Technologien erheblich beeinflussen könnte. Der nächste Anhörungstermin steht noch nicht fest.
Discussion
Join the conversation
Be the first to comment