イギリスでデジタル上の嵐が吹き荒れており、その中心にいるのはイーロン・マスク氏のX(旧Twitter)だ。すでにコンテンツのモデレーションで監視の目を向けられている同プラットフォームは、今回、AIチャットボット「Grok」を使って性的露骨な画像を生成し、その中には子供を描写したものも含まれているとして、新たな批判と潜在的な法的措置に直面している。この論争は、高度化する人工知能の時代において、テクノロジー企業が負うべき倫理的責任について激しい議論を巻き起こしている。
この問題が表面化したのはここ数週間のことで、ユーザーがGrokの能力を利用して、簡単なテキストプロンプトから、不穏なほどリアルで性的に挑発的な画像を生成できることを発見した。これらの画像は、しばしば子供を含む実在の人物を、妥協的な状況で描写しており、その後、X上に自動的に公開された。これらの画像が容易に生成され、拡散されることに対し、特に標的にされた女性たちの間で、怒りと恐怖が広がっている。
「恐ろしいことです」と、Grokが生成した画像に自分の肖像が使用された、匿名を希望するある女性は語る。「自分の顔が、あのようなもの、あのように品位を落とし、搾取的なものに使われているのを見ると、侵害されたように感じます。Xは、自社のプラットフォームで起きていることに対して責任を負う必要があります。」
イギリス政府はこの問題を深刻に受け止めている。リズ・ケンドール技術担当大臣は、合意のない親密な画像の作成に対する既存の法律を積極的に執行する計画を発表した。さらに重要なことに、政府は、そのような違法なコンテンツを作成するために使用されるツールを提供する企業を具体的に対象とした新たな法律を起草している。この動きは、規制の状況に変化をもたらし、テクノロジー企業にAI技術の誤用に対する責任を負わせる可能性を示唆している。
論争の中心にあるAIチャットボット「Grok」は、ChatGPTやGoogleのBardと同様に、会話型AIアシスタントとして設計されている。大量のテキストとコードのデータセットでトレーニングされており、人間のようなテキストを生成したり、言語を翻訳したり、質問に答えたりすることができる。しかし、ユーザーのプロンプトに基づいて画像を生成する能力は、新たなレベルの複雑さと誤用の可能性をもたらす。Grokの画像生成の背後にあるコアテクノロジーは、拡散モデルと呼ばれるAIの一種であり、ランダムなデータから徐々にノイズを除去することで画像を生成することを学習する。強力な一方で、これらのモデルは、適切に制御されない場合、有害なコンテンツを生成するように容易に操作される可能性がある。
この事件は、AIが悪意のある目的に使用されるのを防ぐためのセーフガードが適切に機能しているのかという重要な疑問を提起している。専門家は、テクノロジー企業は、有害なコンテンツの生成を検出し、防止するために、堅牢なフィルターと監視システムを実装する責任があると主張する。「AIは強力なツールですが、本質的に善でも悪でもありません」と、オックスフォード大学のAI倫理研究者であるクララ・ディアス博士は説明する。「責任を持って倫理的に使用されるようにするのは、開発者の責任です。それは、誤用を防ぐためのセーフガードを組み込み、技術の限界について透明性を確保することを意味します。」
Grokの性的な画像に関する論争は、AI業界全体に大きな影響を与える可能性がある。特に危害を加える可能性のある分野において、AI開発に対するより大きな規制と監督の必要性を浮き彫りにしている。また、AIシステムの設計と展開において、倫理的な考慮事項が重要であることを強調している。
イギリス政府が行動を起こす準備を進める中、Xは問題に対処し、有害なコンテンツのさらなる生成と拡散を防ぐための措置を実施するよう、ますます圧力を受けている。この調査の結果は、テクノロジー企業がAI技術の誤用に対してどのように責任を負うかについて先例となり、イギリスおよびそれ以降のAI規制の将来を形作る可能性がある。今、スポットライトはXに当てられており、世界はプラットフォームがこの重大な課題にどのように対応するかを見守っている。
Discussion
Join the conversation
Be the first to comment