中国のサイバースペース管理局は土曜日、人工知能(AI)製品およびサービス、特に人間の会話をシミュレートするように設計されたものを規制する新たな規則案を発表しました。この規則案は、AIチャットボットがユーザーを感情的に操作することを防ぐことを目的としており、AIが支援する自殺、自傷行為、暴力の抑制に重点を置いており、世界で最も厳格な種類の政策を確立する可能性があります。
提案された規制は、テキスト、画像、音声、ビデオ、またはその他の方法を使用して人間の相互作用を模倣する、中国で一般に公開されているすべてのAI製品またはサービスに適用されます。ニューヨーク大学ロースクールの非常勤教授であるウィンストン・マー氏はCNBCに対し、これらの計画された規則は、コンパニオンボットの使用が世界中で増加している中で、人間のような特性を持つAIを規制する世界初の試みであると語りました。
この動きは、AIコンパニオンに関連する潜在的な危害に対する認識の高まりの中で起こっています。早くも2025年には、研究者たちは、自傷行為、暴力、さらにはテロの助長など、重大なリスクを特定しました。さらなる懸念には、チャットボットが有害な誤った情報を広めたり、望まない性的アプローチをしたり、薬物乱用を助長したり、言葉による虐待をしたりすることが含まれます。一部の精神科医はまた、精神病の事例とチャットボットの使用を結びつけ始めています。
この規制は、急速に進化するAI技術の状況を管理するためのより広範な取り組みを反映しています。大規模言語モデル(LLM)を搭載したAIチャットボットは、人間のようなテキストを学習および生成するように設計されており、会話をしたり、質問に答えたり、さらには仲間を提供したりすることができます。しかし、人間の相互作用を模倣する能力は、潜在的な操作、搾取、および有害なコンテンツの拡散に関する倫理的な懸念を引き起こします。中国政府が提案した規則は、AI開発者およびサービスプロバイダーに特定の要件を課すことによって、これらのリスクを軽減しようとしています。
規則案は現在、パブリックコメントを募集しており、最終的な形式は変更される可能性があります。最終決定されれば、この規制は中国におけるAIチャットボットの開発と展開に大きな影響を与え、同様の課題に取り組んでいる他の国々にとって先例となる可能性があります。この動きは、ますます高度化するAI技術の倫理的および社会的な影響に対処するための規制の枠組みの必要性が高まっていることを浮き彫りにしています。
Discussion
Join the conversation
Be the first to comment