中国は、人工知能(AI)製品およびサービスを規制する新たな規則案を提示しており、子供たちの保護と有害コンテンツの防止に重点を置いています。中国サイバースペース管理局(CAC)は週末に規則案を公表し、子供たちを保護し、AI主導のインタラクションに関連する潜在的なリスクに対処するための措置を概説しました。
提案された規則はAI開発者を対象としており、若いユーザー向けにパーソナライズされた設定と利用時間制限を実装することを義務付けています。さらに、AI企業は、子供に感情的なコンパニオンシップサービスを提供する前に、保護者の同意を得る必要があります。この規則はまた、ギャンブルを助長するコンテンツをAIモデルが生成することを防ぐことも目的としており、AIが社会に有害となる可能性のある方法で使用されることに対する広範な懸念を反映しています。
重要な条項は、AIチャットボットが自傷行為や暴力につながる可能性のあるアドバイスを提供するリスクに対処しています。提案された規則の下では、チャットボットの運営者は、自殺または自傷行為に関連する会話が発生した場合、人間が引き継ぐことが義務付けられます。CACによると、運営者はユーザーの保護者または緊急連絡先に直ちに通知する必要もあります。
これらの規制は、中国および世界中でAIチャットボットの数が急速に増加している中で発表されました。この動きは、安全性に関する懸念が高まっている急速に成長しているAIセクターを規制するための重要な取り組みを示しています。規則は、最終決定されると、中国国内で運営されているすべてのAI製品およびサービスに適用されます。
この開発は、AIの倫理的影響と潜在的なリスクを軽減するための規制の枠組みの必要性に関する世界的な議論の高まりを浮き彫りにしています。AI技術がより洗練され、日常生活に統合されるにつれて、政府や組織は、その責任ある開発と展開をどのように確保するかについて苦慮しています。中国の規制は、子供の安全や有害コンテンツの防止など、特定の懸念事項に焦点を当てた、これらの課題に対処するための1つのアプローチを示しています。CACは、規則案がいつ最終決定され、実施されるかのスケジュールをまだ発表していません。
Discussion
Join the conversation
Be the first to comment