政府当局は、イーロン・マスク氏のソーシャルメディアプラットフォームXに対し、同プラットフォームの人工知能チャットボットであるGrokによって生成された、当局が「ぞっとする」と表現するディープフェイクの拡散に対処するよう要求しています。この要求は、X上で操作された音声および動画コンテンツが急増し、誤った情報や個人および機関への潜在的な危害に対する懸念が高まっていることを受けて行われました。
政府の懸念は、Grokが現実的で説得力のあるディープフェイクを生成する能力に集中しています。ディープフェイクとは、既存の画像や動画内の人物を他の人物の肖像に置き換える合成メディアのことです。当局は、これらのディープフェイクが、虚偽の情報を広め、公人を装い、世論に影響を与えるために使用されていると述べています。技術標準省の広報担当者は声明の中で、「これらのGrokによって生成されたディープフェイクの巧妙さは非常に憂慮すべきです」と述べました。「Xに対し、これらが公衆に及ぼすリスクを軽減するために直ちに行動を起こすよう要求します。」
マスク氏のAI企業xAIによって立ち上げられたGrokは、質問に答え、会話形式でテキストを生成するように設計された大規模言語モデル(LLM)です。LLMは、テキストとコードの膨大なデータセットでトレーニングされており、人間のような言語を理解し生成することができます。xAIはGrokの教育およびエンターテイメントにおける可能性を宣伝していますが、批評家は、特に偽情報の作成における悪用の可能性について警告しています。
Xの現在のポリシーでは、欺瞞または誤解を招くことを意図したディープフェイクの作成および配布を禁止していますが、当局は、プラットフォームの執行メカニズムが不十分であると主張しています。彼らは、著名な政治家が扇動的な発言をしている様子を偽って描写したものをはじめ、ここ数週間でX上でいくつかの注目を集めたディープフェイクが急速に拡散していることを指摘しています。「現在のモデレーションの取り組みは、この問題の規模と巧妙さに対処するには明らかに不十分です」と、技術標準省の広報担当者は付け加えました。
政府の要求は、Xに対し、ディープフェイクの検出および削除機能を強化するよう圧力をかけています。考えられる解決策としては、より高度なAI搭載の検出ツールの実装、人的モデレーションの強化、独立したファクトチェック機関との連携などが挙げられます。この状況はまた、AIによって生成されたコンテンツの規制と、言論の自由と誤った情報から保護する必要性とのバランスを取るという、より広範な課題を浮き彫りにしています。
業界アナリストは、この事件がAI企業とソーシャルメディアプラットフォームに対する監視の強化につながり、より厳格な規制と、プラットフォーム上で共有されるコンテンツに対する責任の増大につながる可能性があると示唆しています。「これは業界全体への警鐘です」と、技術政策研究所の主要なAI倫理研究者であるアーニャ・シャルマ博士は述べています。「AI技術の悪用を防ぎ、責任を持って使用されるようにするために、堅牢なセーフガードを開発する必要があります。」
Xは政府の懸念を認め、「ディープフェイクの検出および削除機能を改善するために積極的に取り組んでいる」と述べています。同社はまだ具体的な対策を発表していませんが、当局は、今後2週間以内に詳細な行動計画を期待していることを示唆しています。この状況の結果は、AI規制の将来とオンラインの偽情報との戦いにとって重要な意味を持つ可能性があります。
Discussion
Join the conversation
Be the first to comment