ダウニング街10番地は、旧Twitterとして知られるXが、Grok AIモデルを使用して生成されたディープフェイクの問題に対処するための措置を講じているという報道を認識している。政府の肯定的な受け止めは、AIによって生成された誤情報の拡散と戦うためのソーシャルメディアプラットフォームへの圧力が高まっていることを示している。
Xによる今回の動きは、会話型AIおよびテキスト生成用に設計されたAIモデルであるGrokが、説得力のある偽のオーディオおよびビデオコンテンツの作成に悪用される可能性に対する懸念が高まる中で行われた。高度な機械学習技術を活用するディープフェイクは、個人を装ったり、虚偽の情報を広めたり、世論を操作するために使用される可能性がある。
ダウニング街の報道官は「AIによって生成されたコンテンツに関連するリスクを軽減するためのあらゆる取り組みを歓迎する」と述べた。「プラットフォームが、展開するテクノロジーに対する責任を負い、その悪用を防ぐために積極的に取り組むことが重要だ。」
イーロン・マスク氏の人工知能企業であるxAIによって開発されたGrokは、大量のテキストとコードのデータセットでトレーニングされた大規模言語モデル(LLM)である。GrokのようなLLMは、数十億のパラメータを持つニューラルネットワークを使用して、人間のようなテキストを理解し生成する。懸念が生じるのは、モデルが現実的なスクリプトと対話を生成する能力があり、それが画像およびビデオ操作技術と組み合わされて、説得力のあるディープフェイクを作成できるためである。
Xの具体的な対策の詳細は限られたままだが、業界アナリストは、プラットフォームが検出アルゴリズム、コンテンツモデレーションポリシー、およびユーザー報告メカニズムの組み合わせを実装している可能性があると推測している。検出アルゴリズムは、顔の動きの矛盾や不自然な発話パターンなど、AI操作の明らかな兆候についてビデオおよびオーディオコンテンツを分析できる。コンテンツモデレーションポリシーは、ディープフェイクに関するプラットフォームのスタンスと、それらを作成または共有するユーザーに対する結果を概説する。ユーザー報告メカニズムにより、ユーザーはXのモデレーションチームによるレビューのために、潜在的に有害なコンテンツにフラグを立てることができる。
Grokのような生成AIツールの台頭は、ソーシャルメディアプラットフォームと政策立案者の両方にとって大きな課題となっている。既存の規制は、AI技術の急速な進歩に追いつくのに苦労することが多い。たとえば、欧州連合のAI法は、リスクレベルに基づいてAIシステムを規制することを目的としているが、ディープフェイクの特定の脅威に対処する上での有効性はまだ不明である。
Xの行動が業界に与える影響は大きく、他のプラットフォームが追随するための先例となる可能性がある。ディープフェイク技術がより洗練され、アクセスしやすくなるにつれて、ソーシャルメディア企業がこの問題に積極的に対処するための圧力は強まるばかりだろう。効果的な検出および軽減戦略の開発と展開は、公衆の信頼を維持し、誤情報の拡散を防ぐ上で重要になる。
Xは、Grokによって生成されたディープフェイクに対処するための具体的な計画を概説する包括的な声明をまだ発表していない。詳細については、今後数週間で発表される予定である。
Discussion
Join the conversation
Be the first to comment