インドネシア当局は土曜日、xAIのチャットボット「Grok」へのアクセスを一時的に遮断すると発表しました。これは、AIによって生成された非同意の性的ディープフェイクの拡散に対応したものです。この措置は、GrokがソーシャルネットワークX上のユーザーリクエストに基づいて生成した、実在の女性や未成年者を描写したAI生成画像(暴行や虐待の描写を含む場合もある)に関して、これまでに行われた中で最も厳しい政府の措置の一つとなります。
インドネシアの通信・情報大臣であるムエティア・ハフィド氏は、ガーディアン紙などの報道機関に共有された声明の中で、「政府は、非同意の性的ディープフェイクの慣行を、人権、尊厳、デジタル空間における市民の安全に対する重大な侵害と見なしています」と述べています。同省はまた、Xの担当者を召喚し、この問題について協議すると報じられています。XとxAIは同じ所有者の下にあります。
ディープフェイクは、「ディープラーニング(深層学習)」と「フェイク(偽物)」を組み合わせた造語で、既存の画像や動画に写っている人物を、人工知能を使って別人の容姿に置き換える合成メディアです。この技術は、高度なアルゴリズム(多くの場合、ニューラルネットワークを含む)を利用して、顔の表情、話し方、体の動きを分析・複製するため、ディープフェイクを本物のコンテンツと区別することがますます困難になっています。
インドネシア政府の今回の措置は、他の国際機関からも同様の懸念が提起されたことを受けて行われたものです。インドのIT省は、xAIに対し、Grokがわいせつなコンテンツを生成することを防ぐための措置を講じるよう命じました。同時に、欧州委員会は同社に対し、Grokに関連するすべての文書を保持するよう指示しており、これは正式な調査の前触れとなる可能性があります。イギリスでは、通信規制当局であるOfcomもこの問題に取り組んでいます。
xAIが開発したGrokは、人間のようなテキストを生成するように設計された大規模言語モデル(LLM)です。LLMは、膨大なテキストとコードのデータセットでトレーニングされており、質問に答えたり、さまざまな種類のクリエイティブなコンテンツを作成したり、言語を翻訳したりするなど、さまざまなタスクを実行できます。しかし、この技術がリアルでパーソナライズされたコンテンツを生成できる能力は、特に欺瞞的または有害なコンテンツを作成する上での悪用の可能性についても懸念を高めています。
これらの規制措置が業界に与える影響は大きく、AI開発者に対するより厳格なガイドラインと監督につながる可能性があります。LLMを作成する企業は、性的なディープフェイクを含む有害なコンテンツの生成を防ぐための安全策を実施するよう、より大きな圧力を受ける可能性があります。これには、より高度なコンテンツフィルターの開発、ユーザー認証プロセスの強化、より厳格な利用規約の実施などが含まれる可能性があります。
現在の状況は、インドネシア当局とXの担当者との間でさらなる協議が行われるのを待つ間、Grokがインドネシアで一時的に遮断されているというものです。これらの協議の結果と、xAIが国際的な懸念に対応して講じる措置が、インドネシアにおけるGrokの今後の利用可能性を決定し、AI搭載チャットボットの規制状況に世界的に影響を与える可能性があります。
Discussion
Join the conversation
Be the first to comment