China hat neue Vorschriften zur Entwicklung künstlicher Intelligenz (KI) vorgeschlagen, die sich auf den Schutz von Kindern und die Prävention schädlicher Inhalte im Zusammenhang mit Selbstmord und Gewalt konzentrieren. Die Cyberspace Administration of China (CAC) veröffentlichte am Wochenende den Entwurf der Regeln, in dem die Anforderungen an KI-Unternehmen, die im Land tätig sind, dargelegt werden.
Die vorgeschlagenen Vorschriften befassen sich mit der zunehmenden Verbreitung von KI-gestützten Chatbots und deren potenziellen Auswirkungen auf gefährdete Bevölkerungsgruppen. Entwickler werden verpflichtet, personalisierte Einstellungen und Zeitlimits für Kinder bei der Nutzung von KI-Produkten zu implementieren. Darüber hinaus schreiben die Regeln die Einholung der Zustimmung der Erziehungsberechtigten vor, bevor Minderjährigen emotionale Begleitdienste angeboten werden.
Eine Schlüsselbestimmung konzentriert sich auf die Suizidprävention. Laut CAC müssen Chatbot-Betreiber eine menschliche Intervention in jede Konversation sicherstellen, die auf Selbstmordgedanken oder Selbstverletzung hinweist. Die Vorschriften sehen eine sofortige Benachrichtigung des Erziehungsberechtigten oder des Notfallkontakts des Nutzers in solchen Situationen vor. Die Regeln verbieten auch KI-Modellen die Generierung von Inhalten, die das Glücksspiel fördern.
Diese Maßnahmen stellen einen bedeutenden Schritt zur Regulierung der sich schnell entwickelnden KI-Landschaft in China dar. Der Schritt erfolgt inmitten einer wachsenden globalen Prüfung der Sicherheit und der ethischen Implikationen von KI-Technologien. Die Vorschriften gelten für alle KI-Produkte und -Dienstleistungen, die in China angeboten werden, sobald sie fertiggestellt sind.
Der Aufstieg ausgefeilter KI-Modelle, insbesondere großer Sprachmodelle (LLMs), die in der Lage sind, menschenähnlichen Text zu generieren und komplexe Gespräche zu führen, hat Bedenken hinsichtlich potenziellen Missbrauchs und unbeabsichtigter Folgen geweckt. LLMs werden mit riesigen Datensätzen trainiert, wodurch sie eine breite Palette von Aufgaben ausführen können, von der Beantwortung von Fragen bis zur Erstellung von Originalinhalten. Dies bedeutet jedoch auch, dass sie anfällig für Verzerrungen in den Trainingsdaten sind und potenziell schädliche oder irreführende Informationen generieren können.
Die Initiative der chinesischen Regierung spiegelt einen proaktiven Ansatz zur Minderung dieser Risiken wider, insbesondere im Hinblick auf das Wohlergehen von Kindern. Durch die Forderung nach elterlicher Zustimmung und die Implementierung von Schutzmaßnahmen gegen schädliche Inhalte zielen die Vorschriften darauf ab, eine sicherere Online-Umgebung für junge Nutzer zu schaffen. Der Fokus auf menschliche Intervention bei Suizidgedanken unterstreicht die Bedeutung der Kombination von technologischen Lösungen mit menschlicher Unterstützung.
Die Entwurfsregeln werden derzeit überprüft, und die CAC wird voraussichtlich Rückmeldungen von Branchenbeteiligten und der Öffentlichkeit einholen, bevor sie die Vorschriften fertigstellt. Die Umsetzung dieser Regeln könnte einen Präzedenzfall für andere Länder schaffen, die mit den Herausforderungen der Regulierung von KI und der Gewährleistung ihrer verantwortungsvollen Entwicklung und Bereitstellung zu kämpfen haben. Die Vorschriften signalisieren ein Engagement für den Ausgleich von technologischer Innovation mit gesellschaftlichem Wohlergehen und ethischen Erwägungen.
Discussion
Join the conversation
Be the first to comment