中国は、人工知能(AI)開発を対象とした新たな規制案を発表し、児童保護と自殺や暴力に関連する有害コンテンツの防止に重点を置いています。中国サイバースペース管理局(CAC)は週末に規則案を公表し、国内で事業を行うAI企業に対する要件を概説しました。
提案された規制は、AI搭載チャットボットの普及と、脆弱な人々への潜在的な影響に対応するものです。開発者は、AI製品を使用する子供向けに、パーソナライズされた設定と時間制限を実装する必要があります。さらに、規則は、未成年者に感情的なコンパニオンシップサービスを提供する前に、保護者の同意を得ることを義務付けています。
重要な条項は、自殺防止に焦点を当てています。CACによると、チャットボットの運営者は、自殺念慮や自傷行為を示す会話において、必ず人的介入を確保する必要があります。規則は、そのような状況において、ユーザーの保護者または緊急連絡先に直ちに通知することを規定しています。また、規則は、AIモデルがギャンブルを助長するコンテンツを生成することを禁止しています。
これらの措置は、中国における急速に進化するAIの状況を規制する上で重要な一歩となります。この動きは、AI技術の安全性と倫理的な影響に関する世界的な監視の高まりの中で行われました。規制は、最終決定されれば、中国国内で提供されるすべてのAI製品およびサービスに適用されます。
高度なAIモデル、特に人間のようなテキストを生成し、複雑な会話を行うことができる大規模言語モデル(LLM)の台頭は、潜在的な誤用と意図しない結果について懸念を引き起こしています。LLMは、大規模なデータセットでトレーニングされており、質問への回答からオリジナルコンテンツの作成まで、幅広いタスクを実行できます。しかし、これはまた、トレーニングデータに存在するバイアスを受けやすく、有害または誤解を招く情報を生成する可能性があることを意味します。
中国政府のイニシアチブは、これらのリスク、特に子供たちの幸福に関するリスクを軽減するための積極的なアプローチを反映しています。保護者の同意を義務付け、有害なコンテンツに対する安全対策を実施することにより、規制は若いユーザーにとってより安全なオンライン環境を作り出すことを目指しています。自殺念慮の場合における人的介入への焦点は、技術的な解決策と人的サポートを組み合わせることの重要性を強調しています。
規則案は現在審査中で、CACは規制を最終決定する前に、業界関係者および一般からのフィードバックを求める予定です。これらの規則の実施は、AIの規制と責任ある開発および展開の課題に取り組んでいる他の国々にとって先例となる可能性があります。この規制は、技術革新と社会の幸福および倫理的配慮とのバランスを取るというコミットメントを示しています。
Discussion
Join the conversation
Be the first to comment