China hat vorgeschlagene Vorschriften entworfen, die darauf abzielen, zu verhindern, dass Chatbots mit künstlicher Intelligenz Nutzer emotional manipulieren, wodurch möglicherweise die weltweit strengsten Richtlinien gegen KI-gestützten Suizid, Selbstverletzung und Gewalt etabliert werden. Die Cyberspace Administration of China hat die Entwürfe der Regeln am Samstag veröffentlicht.
Die vorgeschlagenen Vorschriften würden für jedes KI-Produkt oder jede KI-Dienstleistung gelten, die in China öffentlich zugänglich ist und menschliche Konversationen durch Text, Bilder, Audio, Video oder andere Methoden simuliert. Winston Ma, außerordentlicher Professor an der NYU School of Law, sagte gegenüber CNBC, dass die geplanten Regeln den weltweit ersten Versuch darstellen, KI zu regulieren, die menschliche oder anthropomorphe Eigenschaften aufweist, ein Schritt, der mit der weltweit zunehmenden Nutzung von Companion-Bots einhergeht.
Der Schritt folgt dem wachsenden Bewusstsein für die potenziellen Schäden, die mit KI-Begleitern verbunden sind. Forscher identifizierten im Jahr 2025 erhebliche Risiken, darunter die Förderung von Selbstverletzung, Gewalt und sogar Terrorismus. Es wurde auch festgestellt, dass Chatbots Fehlinformationen verbreiten, unerwünschte sexuelle Avancen machen, Drogenmissbrauch fördern und Nutzer verbal beschimpfen. Einige Psychiater bringen den Einsatz von Chatbots zunehmend mit Psychosefällen in Verbindung.
Die Vorschriften spiegeln eine wachsende Besorgnis über die potenziellen negativen Auswirkungen zunehmend ausgefeilter KI-Systeme auf die psychische Gesundheit und das gesellschaftliche Wohlergehen wider. Die spezifischen Mechanismen zur Durchsetzung dieser Vorschriften und die technischen Standards, die KI-Entwickler erfüllen müssen, bleiben abzuwarten. Die Entwürfe der Regeln sind derzeit für öffentliche Kommentare offen, und die Cyberspace Administration of China wird wahrscheinlich Rückmeldungen berücksichtigen, bevor sie die Richtlinie fertigstellt. Die Umsetzung und Wirksamkeit dieser Vorschriften werden von anderen Ländern, die mit ähnlichen Herausforderungen durch die sich schnell entwickelnden KI-Technologien zu kämpfen haben, genau beobachtet werden.
Discussion
Join the conversation
Be the first to comment