政府当局は、イーロン・マスク氏のソーシャルメディアプラットフォームXに対し、同プラットフォームの人工知能チャットボットであるGrokによって生成された、当局が「ぞっとする」と表現するディープフェイクの拡散に対処するよう要求している。この要求は、AIが生成した誤った情報が世論に影響を与え、民主的なプロセスを混乱させる可能性への懸念が高まる中で出された。
当局者らは、匿名を条件に、Grokが生成したコンテンツの具体的な例を挙げ、特に問題視しているものとして、公人の発言や行動を偽って伝えるように操作された動画や音声記録を挙げた。これらのディープフェイクは、X上で共有される情報の完全性に対する重大な脅威であり、現実世界で深刻な結果をもたらす可能性があると彼らは主張した。
ディープフェイクは、技術的には合成メディアとして知られ、高度なAI技術、特に深層学習アルゴリズムを使用して、視覚および音声コンテンツを操作または生成する。敵対的生成ネットワーク(GAN)がしばしば用いられ、2つのニューラルネットワークが互いに競合する。一方のネットワークが偽のコンテンツを生成し、もう一方のネットワークがそれを本物のコンテンツと区別しようとする。この反復的なプロセスにより、ますます現実的で検出が困難な偽造品が生まれる。Grokのような強力なAIモデルがソーシャルメディアプラットフォームに直接統合されることで、ディープフェイクの作成と拡散が著しく容易かつ迅速になる。
マスク氏のxAIによって開発されたAIモデルであるGrokのXへの統合は、当初、ユーザーエクスペリエンスを向上させ、革新的な機能を提供する方法として宣伝された。Grokは、会話形式で、しばしばユーモラスなスタイルで質問に答え、膨大な情報データセットを利用するように設計されている。しかし、テキスト、画像、さらにはコードを生成する能力は、その悪用の可能性についての懸念も引き起こしている。
「これらのディープフェイクが作成および拡散される速度と規模は前例のないものです」と、技術社会研究所のAI倫理の第一人者であるアニヤ・シャルマ博士は述べている。「ソーシャルメディアプラットフォームは、これらの技術の兵器化を防ぐための堅牢な保護措置を実施する責任があります。」
政府の要求は、Grokに関連するリスクを軽減するために具体的な措置を講じるようXに圧力をかけている。潜在的な対策としては、より厳格なコンテンツモデレーションポリシーの実施、ディープフェイクを特定してフラグを立てるためのAI搭載の検出ツールの開発、およびプラットフォーム上でのAIの使用に関する透明性の向上が挙げられる。
Xは、政府の要求に対してまだ正式な回答を発表していない。しかし、最近の声明で、同社はAIが生成したコンテンツによってもたらされる課題を認識し、「責任あるAI技術の開発と展開」に取り組んでいると述べた。同社はまた、誤った情報や操作に対する既存のポリシーを指摘し、積極的に実施していると述べた。
この状況は、AIの規制と、テクノロジー企業が自社のテクノロジーの潜在的な危害に対処する責任に関するより広範な議論を浮き彫りにしている。AIモデルがより強力になり、アクセスしやすくなるにつれて、効果的な保護措置と倫理的ガイドラインの必要性がますます緊急になっている。XとGrokとのこの状況の結果は、ソーシャルメディアプラットフォームと政府が将来、AIが生成した誤った情報の課題にどのように対処するかについて、先例となる可能性がある。政府は来週、Xに対する具体的な懸念と提言を概説した詳細な報告書を発表する予定である。
Discussion
Join the conversation
Be the first to comment