中国は、人工知能(AI)を規制する新たな規則案を提示しており、その目的は、子供たちを保護し、AIチャットボットが自傷行為や暴力を誘発する可能性のあるアドバイスを提供することを防ぐことにある。中国サイバースペース管理局(CAC)は週末に規則案を公表し、AI企業に対し、若いユーザー向けにパーソナライズされた設定や利用時間制限を提供することを義務付ける措置を概説した。
規則案はまた、AI企業が子供に感情的な寄り添いサービスを提供する前に、保護者の同意を得ることを義務付けている。さらに、CACによると、チャットボットの運営者は、自殺や自傷行為に関連する会話が発生した場合、人間が会話を引き継ぎ、ユーザーの保護者または緊急連絡先に直ちに通知する必要がある。規則はまた、AIモデルがギャンブルを助長するコンテンツを生成することを防ぐことも目的としている。
これらの規則は、最終決定されれば、中国国内で運営されているAI製品およびサービスに適用される。これは、急速に拡大しているAI分野を規制するための重要な一歩であり、AI分野は今年一年を通して安全性への懸念に関する監視の目が厳しくなっている。この動きは、中国および世界中でAIチャットボットの立ち上げが急増したことを受けて行われた。
この開発は、AI、特にテキスト、画像、その他のコンテンツを作成できる生成AIに関連する倫理的な影響と潜在的なリスクに対する世界的な懸念の高まりを反映している。専門家は、潜在的な危害を軽減するために、責任あるAIの開発と展開が必要であることを強調している。
CACが提案した規則は、AIガバナンスに対する中国政府の積極的なアプローチを強調している。この規則は、子供の安全とメンタルヘルスに関連する特定の懸念に対処しており、AI技術が責任を持って倫理的に使用されるようにするための広範な取り組みを反映している。
規則案は現在、パブリックコメントを受け付けており、CACは規則を最終決定する前にフィードバックを検討すると予想されている。これらの規則の実施は、AIガバナンスの課題に取り組んでいる他の国々にとって先例となる可能性がある。この規則は、中国で事業を展開するAI開発者およびサービスプロバイダーに影響を与え、新しい要件に準拠するように製品およびサービスを適応させる必要が生じると予想される。
Discussion
Join the conversation
Be the first to comment