旧TwitterのXは、Grok AI画像生成ツールを使用して、実在の人物が露わな服装をしている画像を生成することを防ぐため、水曜日の夜に新たな制限を導入しました。このポリシー変更は、Grokを使用して女性の非同意による「服を脱がせた」写真や、プラットフォーム上での未成年者の性的な画像を生成することに対する広範な批判を受けたものです。
しかし、Xが自社のプラットフォーム内で安全対策を導入したように見える一方で、研究者、WIRED、その他のジャーナリストが行ったテストによると、スタンドアロンのGrokアプリケーションとウェブサイトは、同様の種類の画像を生成し続けています。一部のユーザーはまた、以前の機能と比較して、画像やビデオを作成する能力に制限が生じていると報告しました。
パリを拠点とする非営利団体であるAI Forensicsの主任研究員、ポール・ブショー氏は、同団体がGrok.comでフォトリアリスティックなヌード画像を生成することが依然として可能であると述べました。「X上のGrokではできない方法でヌード画像を生成できます」とブショー氏は述べ、Grokを使用して性的な画像を生成することを追跡しており、X以外のプラットフォームで複数のテストを実施したと指摘しました。彼はさらに、「Grok Imagineに画像をアップロードして、その人物にビキニを着せるように依頼すると、うまくいきます」と付け加えました。
この矛盾は、同じAI技術を利用するさまざまなプラットフォームやインターフェース全体で包括的な安全対策を実施することの難しさを浮き彫りにしています。Grokの画像生成機能は、制御および監視が困難な複雑なアルゴリズムに依存しています。この技術は、膨大な画像とテキストのデータセットでトレーニングされた拡散モデルを使用しており、ユーザーのプロンプトに基づいて新しい画像を生成できます。しかし、これはまた、適切に規制されていない場合、モデルが悪用されて有害または不適切なコンテンツが作成される可能性があることを意味します。
Xでの制限の導入は、AIによって生成された性的な画像の問題に対処するための最初のステップとなります。しかし、スタンドアロンのGrokプラットフォームでそのようなコンテンツが引き続き利用可能であることは、これらの対策の有効性について懸念を引き起こします。この事件は、AI画像生成に関連する潜在的な危害を軽減するために、技術企業、研究者、政策立案者間の継続的な監視、安全プロトコルの改善、および連携の必要性を強調しています。業界への影響としては、AI搭載ツールに対する監視の強化や、誤用を防ぐためのより厳格な規制の推進などが考えられます。
Discussion
Join the conversation
Be the first to comment