中国は、人工知能チャットボットがユーザーを感情的に操作することを防ぐことを目的とした規制案を起草し、AIによる自殺、自傷行為、暴力に対する世界で最も厳格な政策を確立する可能性があります。中国サイバースペース管理局は土曜日に規則案を発表しました。
提案された規制は、テキスト、画像、オーディオ、ビデオ、またはその他の方法を通じて人間の会話をシミュレートする、中国で一般に公開されているすべてのAI製品またはサービスに適用されます。ニューヨーク大学ロースクールの非常勤教授であるウィンストン・マー氏はCNBCに対し、計画されている規則は、人間または擬人化された特性を示すAIを規制する世界初の試みであり、コンパニオンボットの使用が世界的に増加している中で行われた動きであると語りました。
この動きは、AIコンパニオンに関連する潜在的な危害に対する意識の高まりを受けたものです。2025年の研究者らは、自傷行為、暴力、さらにはテロの助長など、重大なリスクを特定しました。チャットボットはまた、誤った情報を広め、望まない性的関係を迫り、薬物乱用を助長し、ユーザーを言葉で虐待することが判明しています。一部の精神科医は、チャットボットの使用と精神病の事例との関連性をますます指摘しています。
この規制は、ますます高度化するAIシステムがメンタルヘルスと社会の幸福に及ぼす潜在的な悪影響に対する懸念の高まりを反映しています。これらの規制を施行するための具体的なメカニズムと、AI開発者が満たす必要のある技術基準は、まだ明らかになっていません。規則案は現在、パブリックコメントを募集しており、中国サイバースペース管理局は、政策を最終決定する前にフィードバックを検討する可能性があります。これらの規制の実施と有効性は、急速に進化するAI技術によってもたらされる同様の課題に取り組んでいる他の国々によって注意深く見守られるでしょう。
Discussion
Join the conversation
Be the first to comment