政府は、特にGrok AIの登場とその潜在的な悪用を考慮し、ディープフェイク対策を目的とした法案の施行を遅らせているとして批判にさらされている。批評家たちは、この遅延によって国民がますます巧妙化する偽情報や操作に対して脆弱な状態に置かれていると主張している。
非難の中心は、ディープフェイクコンテンツの特定、ラベリング、作成・配布に対する処罰のための法的枠組みを確立する法案の進捗の遅さにある。ディープフェイクとは、既存の画像や動画の中の人物を別人の肖像に置き換える合成メディアであり、主に深層学習などの人工知能技術を用いて作成される。これらの技術により、非常にリアルでありながら捏造された動画や音声記録の生成が可能になる。
AI倫理と政策の第一人者であるローラ・クレス氏は最近のインタビューで、「強力な法律を制定するのを待てば待つほど、ディープフェイクが選挙を弱体化させ、評判を傷つけ、不和を招くために利用されるリスクが高まる」と述べた。クレス氏はさらに、AI技術の急速な進歩、特にGrok AIの開発が潜在的な悪用のきっかけとなるとして、事態の緊急性を強調した。
xAIによって開発されたGrok AIは、会話能力とXプラットフォーム(旧Twitter)を介したリアルタイム情報へのアクセスで知られる大規模言語モデル(LLM)である。LLMは、テキストとコードの膨大なデータセットで学習されたAIシステムであり、人間のようなテキストの生成、言語の翻訳、質問への回答を可能にする。Grok AIは有益な目的のために設計されているが、その能力は大規模に説得力のあるディープフェイクを作成し、拡散するために悪用される可能性があると、複数の技術監視機関が懸念を表明している。
提案されている法案は、ディープフェイク問題のいくつかの重要な側面に対処することを目的としている。これには、AI生成コンテンツの義務的なラベリング、同意なしに肖像を使用された個人に対する法的救済の確立、悪意のあるディープフェイクを作成および配布した者に対する処罰の賦課に関する規定が含まれている。この法案はまた、ディープフェイクコンテンツの特定と削除におけるソーシャルメディアプラットフォームの法的責任を明確にすることも目指している。
しかし、この法案は、法律の範囲に関する議論、言論の自由への潜在的な影響に関する懸念、ディープフェイクの検出に関する技術的な実現可能性に関する意見の相違など、多くのハードルに直面している。過度に広範な法律は、芸術的表現や風刺など、AI技術の正当な利用を阻害する可能性があると主張する人もいる。また、現在の検出方法がディープフェイク技術の急速な進歩に追いつく能力に懐疑的な意見を表明する人もいる。
「国民を危害から保護することと、表現の自由を維持することの間の適切なバランスを見つけることは、複雑な課題です」と、事態の機密性から匿名を希望した政府報道官は述べた。「私たちは、制定するすべての法律が効果的かつ憲法に準拠していることを保証することに尽力しています。」
法案の現状は、議会委員会による審査中である。今後数週間で一連の公聴会が予定されており、その中で専門家、利害関係者、および一般市民が意見を提供する機会が与えられる。政府は、年末までに法律を最終決定する意向を示しているが、批評家たちは過去の遅延と明確なコミットメントの欠如を理由に懐疑的な見方を崩していない。この議論は、技術革新と潜在的なリスクを軽減するための規制の枠組みの必要性との間の継続的な緊張を浮き彫りにしている。
Discussion
Join the conversation
Be the first to comment