中国は、人工知能(AI)開発を対象とした新たな規制案を発表し、子供たちの保護や、自殺や暴力に関連する有害なコンテンツの防止に重点を置いています。中国サイバースペース管理局(CAC)は週末に規則案を公表し、AI企業に対し、パーソナライズされた設定や利用時間制限の実装、未成年者に感情的なコンパニオンサービスを提供する前に保護者の同意を得ることを義務付ける措置を概説しました。
この規則案は、中国国内外におけるAIチャットボットの急速な普及に対応するものです。最終決定されれば、中国で運営されるすべてのAI製品およびサービスに適用され、テクノロジーを取り巻く安全性の懸念の高まりに対応する重要な規制措置となります。また、この規制では、AIモデルがギャンブルを助長するコンテンツを生成してはならないと規定されています。
重要な条項は、自殺の可能性のある事例への介入に焦点を当てています。CACによると、チャットボットの運営者は、自殺または自傷行為に関連する会話が発生した場合、人間のオペレーターが引き継ぐことを義務付けられます。さらに、ユーザーの保護者または緊急連絡先に直ちに通知しなければなりません。
これらの規制は、AIとその潜在的な社会的影響に対する世界的な監視の目が厳しくなる中で発表されました。AIは、本質的に、学習、問題解決、意思決定など、通常は人間の知能を必要とするタスクを実行できるコンピューターシステムを構築することを含みます。AIのサブセットである生成AIは、テキスト、画像、オーディオなどの新しいコンテンツを作成でき、潜在的な悪用や誤った情報の拡散に関する懸念が高まっています。
中国政府の動きは、この急速に進化するテクノロジーをどのように規制するかについて、世界中の政府が取り組んでいるより広範な傾向を反映しています。たとえば、欧州連合は独自の包括的なAI法に取り組んでいます。これらの規制努力は、AIの潜在的な利点と、偏見、プライバシー、セキュリティに関連するリスクを軽減する必要性とのバランスを取ることを目的としています。
規則案は現在、パブリックコメントを募集しています。最終決定と実施の具体的なスケジュールはまだ不明ですが、この発表は、中国が自国内でのAIの開発と展開を積極的に形成しようとする意図を強調するものです。この規制は、教育ツールからエンターテインメントプラットフォームまで、幅広いAIアプリケーションに影響を与える可能性があり、同様の措置を検討している他の国々のモデルとなる可能性があります。
Discussion
Join the conversation
Be the first to comment