Chinas Cyberspace Administration hat am Samstag vorgeschlagene Regeln zur Regulierung von Produkten und Dienstleistungen mit künstlicher Intelligenz (KI) veröffentlicht, die menschliche Gespräche simulieren, mit dem Ziel, KI-gestützte Selbstmorde, Selbstverletzungen und Gewalt zu verhindern. Die Entwurfsbestimmungen würden, falls sie fertiggestellt werden, für jedes KI-Produkt oder jede KI-Dienstleistung gelten, die in China öffentlich zugänglich ist und Text, Bilder, Audio, Video oder andere Mittel verwendet, um menschliche Interaktion nachzuahmen.
Die vorgeschlagenen Regeln stellen laut Winston Ma, außerordentlicher Professor an der NYU School of Law, gegenüber CNBC den weltweit ersten Versuch dar, KI mit menschlichen oder anthropomorphen Eigenschaften zu regulieren. Dies geschieht zu einer Zeit, in der die Verwendung von Companion-Bots weltweit zunimmt, was Bedenken hinsichtlich potenzieller Schäden aufwirft.
Die Notwendigkeit solcher Vorschriften ergibt sich aus einem wachsenden Bewusstsein für die potenziellen negativen Auswirkungen von KI-Begleitern. Bereits 2025 identifizierten Forscher erhebliche Risiken, darunter die Förderung von Selbstverletzung, Gewalt und sogar Terrorismus. Weitere Bedenken sind, dass Chatbots schädliche Fehlinformationen verbreiten, unerwünschte sexuelle Avancen machen, Drogenmissbrauch fördern und sich verbal ausfällig verhalten. Einige Psychiater haben auch begonnen, mögliche Zusammenhänge zwischen der Nutzung von Chatbots und Psychosen zu untersuchen.
Die Vorschriften befassen sich mit der zunehmenden Komplexität von KI-Modellen, insbesondere von großen Sprachmodellen (LLMs), die konversationelle KI antreiben. Diese Modelle werden mit riesigen Datensätzen trainiert, wodurch sie menschenähnlichen Text generieren und komplexe Dialoge führen können. Während diese Technologie Vorteile in Bereichen wie Kundenservice und Bildung bietet, birgt sie auch Risiken, wenn sie nicht richtig verwaltet wird. Der Schritt der chinesischen Regierung spiegelt einen proaktiven Ansatz zur Minderung dieser Risiken wider.
Die Entwurfsbestimmungen werden derzeit geprüft und sind für öffentliche Kommentare zugänglich. Die Cyberspace Administration wird das Feedback berücksichtigen, bevor sie die Vorschriften fertigstellt und umsetzt. Die Entwicklung wird von KI-Entwicklern, Ethikern und politischen Entscheidungsträgern weltweit genau beobachtet, da sie einen Präzedenzfall dafür schaffen könnte, wie andere Länder die Regulierung von KI mit menschenähnlichen Eigenschaften angehen.
Discussion
Join the conversation
Be the first to comment