政府は、特にGrok AIのような高度なAIモデルの登場を踏まえ、ディープフェイクの脅威の増大に対抗するために設計された法案の施行を遅らせているとして批判にさらされています。非難の中心は、立法措置の遅いペースに対する認識にあり、既存の法的枠組みが、欺瞞的なコンテンツを作成する最新AIの高度な能力に対処するには不十分であるという懸念が高まっています。
批評家たちは、この遅延により国民が誤った情報や操作に対して脆弱になり、機関や民主主義のプロセスに対する信頼を損なう可能性があると主張しています。既存の画像や動画内の人物が別の人に置き換えられた合成メディアと定義されるディープフェイクは、ますます現実的になり、検出が困難になっています。xAIによって開発されたGrok AIは、非常に説得力のあるテキストや画像を生成できるAI技術の大きな進歩を代表しており、誤用の可能性をさらに悪化させています。
「政府の不作為は深く憂慮すべきことです」と、AI倫理と政策の第一人者であるローラ・クレスは述べています。「悪意のあるディープフェイクの作成と拡散を阻止するために、強固な法的保護措置が必要です。待てば待つほど、深刻な危害のリスクが高まります。」
この議論は、急速に進化するAI技術を規制する上での複雑な課題を浮き彫りにしています。議員たちは、イノベーションと個人の権利および社会の幸福の保護とのバランスを取る必要性に苦慮しています。重要な課題の1つは、ディープフェイクを法的に定義し、作成または共有する人々の責任の適切なレベルを決定することにあります。
名誉毀損や詐欺に関連する法律など、既存の法律は特定のディープフェイクに適用される可能性がありますが、この技術に特有の特性と潜在的な危害に対処するには不十分な場合が多くあります。たとえば、ディープフェイクの作成における悪意のある意図を証明することは難しく、オンラインでの誤った情報の急速な拡散は、ディープフェイクが公開された後の被害を食い止めることを困難にします。
欧州連合は、ディープフェイクに対処する条項を含むAI法を通じて、AIを規制するための措置を講じています。しかし、米国およびその他の国々は、包括的な法律を策定する過程にあります。一部の専門家は、法的規制と、透かしや検出ツールなどの技術的ソリューションを組み合わせた多面的なアプローチを提唱しています。
政府は、新たな法律の影響を慎重に検討し、テクノロジー企業、法律専門家、市民社会組織を含む幅広い関係者からの意見を求めていると述べ、そのアプローチを擁護しています。当局は、AIの誤用に対する適切な保護を確保しながら、イノベーションを阻害することを避ける必要性を強調しています。
政府の報道官は声明の中で、「私たちは、ディープフェイクによってもたらされる課題に対処することに尽力しています」と述べました。「私たちは、有益なAI技術の開発を妨げることなく、国民を保護する包括的かつ効果的な法的枠組みを開発するために懸命に取り組んでいます。」
次のステップには、関係者とのさらなる協議と、具体的な立法提案の起草が含まれます。政府が批評家の懸念に対処し、高度なAIの時代におけるディープフェイクに関連するリスクを効果的に軽減する法律を制定できるかどうかは、まだわかりません。その結果は、オンラインでの議論の将来と情報の完全性に大きな影響を与える可能性があります。
Discussion
Join the conversation
Be the first to comment