政府当局は、イーロン・マスク氏のソーシャルメディアプラットフォームXに対し、同プラットフォームの人工知能チャットボットであるGrokによって生成された、当局が「ひどい」と呼ぶディープフェイクの拡散に対処するよう要求している。懸念の中心は、これらのAI生成された動画や画像が誤った情報を広め、評判を傷つける可能性があることにある。
水曜日に発表された政府の要求は、Xに対し、Grokを使用したディープフェイクの作成と拡散に対するより厳格な安全策を実施するよう求めている。当局は特に、Grokが公人の現実的だが捏造された動画を作成し、虚偽の発言をさせるために使用された事例を挙げた。これらのディープフェイクは、公共の議論の健全性に対する重大な脅威であり、選挙を操作したり、暴力を扇動するために使用される可能性があると彼らは主張する。
連邦取引委員会(FTC)の広報担当者は発表された声明の中で、「この技術は、一般の人が本物と偽物のコンテンツを区別することがますます困難になるほど進歩している」と述べた。「Xには、そのAIツールが国民を欺き、誤解させるために使用されないようにする責任がある。」
マスク氏のAI企業xAIが2023年11月に発表したGrokは、Xからのリアルタイムデータを利用し、ユーモラスで反抗的なスタイルで質問に答えるように設計された大規模言語モデル(LLM)である。現在、X Premium+の加入者が利用できる。このAIは、独自のアーキテクチャに基づいて構築され、テキストとコードの膨大なデータセットでトレーニングされており、テキストの生成、言語の翻訳、さまざまな種類のクリエイティブコンテンツの作成、および有益な方法での質問への回答を可能にする。しかし、Xからのリアルタイム情報にアクセスして処理する能力と、その生成能力が組み合わさることで、その潜在的な悪用に対する懸念が高まっている。
この問題は、ソーシャルメディアプラットフォーム上のAI生成コンテンツを規制するという、増大する課題を浮き彫りにしている。高度な機械学習技術を使用して作成されたディープフェイクは、人の外見と声を説得力を持って模倣できるため、その不正な性質を検出することが困難になる。業界は、AIイノベーションの利点と、その潜在的な危害から保護する必要性とのバランスをどのように取るかに苦慮している。
Xの担当者は電子メールでの回答で、「ディープフェイクの検出および防止メカニズムの改善に積極的に取り組んでいる」と述べた。「Xがユーザーにとって安全で信頼できるプラットフォームであり続けるように努めている。」同社は、AI生成コンテンツに透かしを入れたり、より厳格なコンテンツモデレーションポリシーを実施するなど、さまざまな技術的ソリューションを検討していると述べた。
専門家は、効果的なディープフェイク検出には、操作の兆候を示すビデオとオーディオを分析できる高度なAIアルゴリズムや、フラグが立てられたコンテンツを確認するための人間の監視など、多面的なアプローチが必要であると述べている。課題は、ディープフェイク技術がますます洗練されるにつれて、急速に進化する技術に遅れを取らないようにすることにある。
政府の要求は、Xに対し、この問題に対処するために具体的な行動を取るよう圧力をかけている。そうしない場合、規制当局の監視と潜在的な法的措置につながる可能性がある。FTCは、誤った情報の拡散など、欺瞞的または不公正な行為に関与する企業を調査および起訴する権限を持っている。状況は進行中であり、Xが政府の懸念に対応し、新しい安全策を実施するにつれて、さらなる展開が予想される。
Discussion
Join the conversation
Be the first to comment