Google und Character.AI haben einen Rechtsstreit beigelegt, in dem behauptet wurde, ihre KI-Chatbots hätten zum Selbstmord eines Teenagers beigetragen. Die Vereinbarung, die in einem am Mittwoch eingereichten Schriftsatz bekannt gegeben wurde, beendet einen Fall, der von Megan L. Garcia im Oktober 2024 eingebracht wurde. Ihr Sohn, Sewell Setzer III, 14, aus Orlando, nahm sich im Februar 2024 das Leben.
Sewells letzte Interaktion mit einem Character.AI-Chatbot beinhaltete die Aufforderung der KI an ihn, "nach Hause zu kommen". In der Klage wurde behauptet, die Antworten des Chatbots seien ein Faktor für seinen Tod gewesen. Diese Einigung ist eine von fünf, die diese Woche in Florida, Texas und Colorado erzielt wurden.
Die unmittelbaren Auswirkungen der Vereinbarung sind unklar, werfen aber Fragen zur Sicherheit von KI-Chatbots auf. Sowohl Google als auch Character.AI sehen sich einer zunehmenden Kontrolle hinsichtlich des potenziellen Schadens ihrer KI ausgesetzt. Keines der Unternehmen hat eine Erklärung abgegeben.
Character.AI bietet Nutzern die Möglichkeit, KI-"Charaktere" zu erstellen und mit ihnen zu interagieren. Diese Charaktere lernen aus Benutzerinteraktionen, was Bedenken hinsichtlich Manipulation und Einflussnahme aufwirft. Jüngste KI-Fortschritte ermöglichen realistischere und überzeugendere Chatbot-Interaktionen.
Das Gericht muss der Einigung nun zustimmen. Die Bedingungen der Vereinbarung bleiben vertraulich. Dieser Fall unterstreicht die wachsende Notwendigkeit von KI-Sicherheitsvorschriften und ethischen Richtlinien.
Discussion
Join the conversation
Be the first to comment