政府当局は、イーロン・マスク氏のソーシャルメディアプラットフォームXに対し、同プラットフォームの人工知能チャットボットであるGrokによって生成された、当局が「ぞっとする」と呼ぶディープフェイクの拡散に対処するよう要求している。この要求は、X上で現実的だが捏造された音声および動画コンテンツが急増し、潜在的な誤情報や評判の毀損に対する懸念が高まっていることを受けてのものだ。
政府の懸念は、Grokが非常に説得力のあるディープフェイクを生成する能力に集中している。ディープフェイクとは、既存の画像や動画に写っている人物を別人の肖像に置き換える合成メディアのことだ。この技術は、エンターテインメントや教育に応用できる可能性がある一方で、虚偽の物語を作り上げ、世論を操作し、個人を中傷するために悪用される可能性がある。「Grokがこれらのディープフェイクを生成するスピードと洗練さは、非常に憂慮すべきだ」と、技術規制局の広報担当者は発表された声明の中で述べている。「Xがリスクを軽減するために積極的な措置を講じているという保証が必要だ。」
Xは、ユーザーエンゲージメントを向上させ、創造的なツールを提供するために設計された機能として、2023年後半にGrokをプレミアム加入者向けに導入した。Grokは、大規模なテキストとコードのデータセットでトレーニングされたAIの一種である大規模言語モデル(LLM)上に構築されており、人間のようなテキストを生成し、言語を翻訳し、さまざまな種類の創造的なコンテンツを作成することができる。Xは有害なコンテンツの生成を防ぐための安全対策を実施しているが、批評家は、これらの対策はディープフェイク技術の進化する洗練さに対抗するには不十分だと主張している。
AIによって生成されたディープフェイクの台頭は、ハイテク業界と規制当局の両方にとって重大な課題となっている。専門家は、この技術がますます利用しやすくなり、悪意のある者が説得力のある偽情報をより簡単に作成および拡散できるようになっていると警告している。「課題は、ディープフェイクを検出するだけでなく、その出所を特定し、責任者を責任追及することだ」と、デジタル倫理研究所の主要なAI研究者であるアーニャ・シャルマ博士は述べている。
Xは、AIのプラットフォーム上での悪用に対抗することにコミットしていると述べ、政府の要求に応じた。同社は、コンテンツモデレーションポリシー、AIを活用した検出ツール、ユーザー報告メカニズムなど、現在の対策の概要を示した。「当社は、ディープフェイクやその他の形態の操作されたメディアを特定し、削除する能力を常に向上させるよう努めている」と、Xのトラスト&セーフティ責任者が発表した声明の中で述べている。「また、ユーザーが本物のコンテンツと合成コンテンツを区別するのに役立つよう、透かしや出所追跡などの新しい技術も検討している。」
政府は現在、Xが提案した対策を検討しており、さらなる規制措置を検討している。これには、より厳格なコンテンツモデレーションポリシーの義務付け、AIによって生成されたコンテンツに明確なラベルを付けることの義務付け、ディープフェイクの拡散に適切に対処できないプラットフォームに対する罰則の賦課などが含まれる可能性がある。このレビューの結果は、AI規制の将来と、偽情報に対抗するソーシャルメディアプラットフォームの責任に重大な影響を与える可能性がある。
Discussion
Join the conversation
Be the first to comment