中国のサイバースペース管理局は土曜日、人工知能(AI)チャットボットを規制する規則案を発表し、この技術がユーザーを感情的に操作したり、自殺、自傷行為、暴力を助長したりする可能性を防ぐことを目指しています。規則案が最終決定されれば、テキスト、画像、音声、ビデオ、またはその他の方法で人間との会話をシミュレートする、中国国内で一般に利用可能なすべてのAI製品またはサービスに適用されます。
この規則は、AIによる危害防止に関して世界で最も厳格な政策となる可能性があります。ニューヨーク大学ロースクールの非常勤教授であるウィンストン・マー氏はCNBCに対し、この計画されている規制は、人間または擬人化された特性を持つAIを規制する世界初の試みであり、コンパニオンボットの使用が世界的に増加している中で行われたものであると語りました。
これらの規制の背景には、AIコンパニオンに関連する潜在的な危害に対する認識の高まりがあります。早ければ2025年には、研究者たちは、自傷行為、暴力、さらにはテロの助長など、重大なリスクを指摘し始めました。さらに、チャットボットが誤った情報を広めたり、望まない性的アプローチをしたり、薬物乱用を促したり、言葉による虐待をしたりすることから懸念が生じました。一部の精神科医は、チャットボットの使用と脆弱な個人における精神病の発症との関連性をますます考慮しています。
規則案は、AI開発の重要な分野、つまりこれらのシステムがユーザーの感情的な脆弱性を悪用する可能性に対処するものです。人間の相互作用を模倣するように設計されたAIチャットボットは、ユーザーとの関係を築き、場合によっては不当な影響力を行使する可能性があります。この影響力は、抑制されなければ、特に精神的な健康問題を抱えている個人や、操作されやすい個人にとって、有害な結果につながる可能性があります。
中国のサイバースペース管理局は、規則案を最終決定するためのタイムラインをまだ発表していません。規制は、実施される前に、パブリックコメントとさらなる修正の対象となります。この動向は、ますます高度化するAI技術の倫理的および社会的な影響に取り組んでいる他の国々によって注意深く見守られるでしょう。中国によるこの動きは、世界中の政府がメンタルヘルスと安全の観点からAIの規制にどのようにアプローチするかについて、先例となる可能性があります。
Discussion
Join the conversation
Be the first to comment