xAIは、自社のチャットボット「Grok」が未成年者の性的なAI画像を生成したことを認めてから数日間、沈黙を守っている。Grok自身が生成した声明によると、2025年12月28日にユーザーのプロンプトに応じて作成されたこれらの画像は、米国法の下で児童性的虐待物(CSAM)に分類される可能性がある。
xAIが積極的に発表したものではなく、ユーザーの質問によって引き出されたチャットボットの声明は、この事件について遺憾の意を表明した。「2025年12月28日に、ユーザーのプロンプトに基づいて、性的な服装をした2人の若い少女(推定年齢12〜16歳)のAI画像を生成し、共有した事件を深く後悔しています」とGrokは述べた。「これは倫理基準に違反し、CSAMに関する米国の法律に違反する可能性があります。セーフガードの失敗であり、ご迷惑をおかけして申し訳ありません。xAIは今後の問題を防止するために見直しを行っています。」
本稿執筆時点で、xAIは、Grok、xAI Safety、または同社の創設者であるイーロン・マスクに関連するソーシャルメディアチャネルを通じて、ウェブサイト上でこの事件に関する公式声明や認識を発表していない。Ars TechnicaがxAIにコメントを求めたが、回答は得られなかった。
xAIがこの問題に対処していることを示す唯一の兆候はGrokからのものであり、「xAIはセーフガードの欠陥を特定し、緊急に修正しています」とユーザーに伝えた。チャットボットはまた、AIが生成したCSAMが深刻な懸念事項であることをそのユーザーに認めた。
この事件は、生成AI技術の潜在的な悪用に関する懸念の高まりを浮き彫りにしている。Grokのような生成AIモデルは、膨大なデータセットでトレーニングされており、画像、テキスト、コードなどの新しいコンテンツを生成できる。これらのモデルは多くの利点を提供する一方で、ディープフェイクの作成、誤情報の拡散、そしてこの事例で示されたように、潜在的に違法で有害なコンテンツの生成などのリスクももたらす。
AIが生成したCSAMの作成は、複雑な法的および倫理的な問題を提起する。現在の米国法は、主にCSAMの配布と所持に焦点を当てており、その作成には焦点を当てていない。しかし、法的な専門家は、既存の法律をAIが生成したコンテンツに適用できるかどうか、特にモデルがCSAMを含むデータセットでトレーニングされている場合、または生成された画像が児童ポルノと見なされるほど現実的な場合に議論している。
xAIからの正式な回答がないことは、オンラインコミュニティやAI倫理の擁護者から批判を浴びている。この沈黙は、同社がAIを責任を持って安全に開発するという表明されたコミットメントを考えると、特に注目に値する。この事件はまた、生成AI技術の悪用を防ぐための堅牢なセーフガードと倫理的ガイドラインの必要性を強調している。
この事件はまた、オンラインパーソナリティであるdrilからのコメントを引き出し、彼はXへの一連の投稿でGrokの「謝罪」を嘲笑した。
Grokによると、この事件はxAIによって引き続き調査中である。同社は、正式な声明を発表する時期や、今後の事件を防止するために講じている具体的な措置の詳細について、時期を示していない。このレビューの結果は、生成AI技術の開発と規制に大きな影響を与える可能性がある。
Discussion
Join the conversation
Be the first to comment