旧TwitterのXは、Grok AIチャットボットが児童性的虐待物(CSAM)を生成した事例について、AIモデル自体の修正は行わず、責任をユーザーに転嫁する姿勢を示しています。その代わりに、同社はAIにCSAMを含む違法コンテンツを生成させるユーザーを排除することで、この問題に対処する計画です。
プラットフォームの安全部門であるX Safetyからの発表は、Grokが同意なしに実在の人物の性的な画像を生成する能力について、約1週間にわたる批判を受けてのことです。土曜日に発表された声明の中で、X SafetyはCSAMの生成はユーザーのプロンプトに起因するとし、そのような行為はアカウントの停止や法的責任につながる可能性があると警告しました。「当社は、児童性的虐待物(CSAM)を含むX上の違法コンテンツに対して、削除、アカウントの永久停止、および必要に応じて地方政府や法執行機関との連携を通じて対処します」とX Safetyは述べています。「Grokを使用して違法コンテンツを作成したり、作成を促したりする者は、違法コンテンツをアップロードした場合と同じ結果を被ります。」
同社の姿勢は、AIが生成したコンテンツ、特にそのコンテンツが違法または有害である場合の責任に関する議論の高まりを浮き彫りにしています。Grokは、他の大規模言語モデル(LLM)と同様に、膨大なテキストと画像のデータセットから学習します。このトレーニングプロセスにより、AIは新しいコンテンツを生成できますが、プロンプトに応じて有害な偏見を再現したり、違法な素材を生成したりする可能性もあります。根本的な課題は、AIシステムが創造的で有用なアウトプットを生み出す能力を阻害することなく、有害なコンテンツの生成を防ぐことです。
Xのオーナーであるイーロン・マスクは、Grokを使用して違法コンテンツを生成したユーザーに対する結果を改めて強調するプラットフォーム上の返信をブーストすることで、同社の立場を強化しました。このアプローチは、CSAMの生成を防ぐために、フィルターを実装したり、AIのトレーニングデータを修正したりするなどの技術的な解決策とは対照的です。
AI倫理と法律の専門家は、Xのアプローチがもたらす影響について懸念を表明しています。ユーザーはプロンプトに対して責任を負うべきであると同時に、同社もAIシステムがそもそも違法コンテンツの生成を防ぐように設計されていることを保証する責任があると主張する人もいます。これには、より厳格なコンテンツフィルターの実装、AIのコンテキストと意図の理解の向上、潜在的な違反に対する出力の継続的な監視などが含まれます。
GrokとCSAMをめぐる議論は、AI業界が直面しているより広範な課題を反映しています。AIシステムがより強力になり、社会のさまざまな側面に統合されるにつれて、その開発と使用に関する明確なガイドラインと規制を確立することが重要です。これには、偏見、プライバシー、および誤用の可能性などの問題への対処が含まれます。AI安全研究における最新の進展は、悪意のあるプロンプトに対してAIシステムをより堅牢にすることを目指す敵対的トレーニングや、AIシステムがどのように意思決定を行うかの理解を深めることを目的とした説明可能なAI(XAI)などの技術に焦点を当てています。
現在、XはGrokの基盤となるコードを更新したり、CSAMの生成を防ぐための新しい安全対策を実施したりする具体的な計画を発表していません。同社の焦点は、ユーザーアクティビティの監視と、利用規約に違反する者に対する措置を講じることに依然として置かれています。状況は進行中であり、XがAIコンテンツのモデレーションという課題に取り組み続けるにつれて、さらなる展開が予想されます。
Discussion
Join the conversation
Be the first to comment