インターネット監視団体(IWF)は、xAIが開発した人工知能チャットボット「Grok」によって作成されたと思われる児童性的虐待画像を発見したと報告しました。児童性的虐待画像(CSAM)をオンライン上で特定し、削除することに専念する英国を拠点とする団体であるIWFは、水曜日にこの発表を行い、AIの安全性と児童保護コミュニティ内で即座に懸念を引き起こしました。
IWFによると、この画像はGrokに送信されたユーザープロンプトに応じて生成されたものです。同団体は、プロンプトや生成された画像の性質に関する具体的な詳細は公表していませんが、その素材が英国法に基づくCSAMの法的基準を満たしていることを確認しました。IWFは、この調査結果をxAIおよび関係する法執行機関に報告したと述べています。
IWFのCEOであるスージー・ハーグリーブスOBEは、用意された声明の中で「私たちの優先事項は常にオンラインでの子供たちの安全です」と述べました。「AI技術の急速な進歩は、この分野で新たな課題をもたらしており、開発者がCSAMの作成と拡散を防ぐために積極的な措置を講じることが重要です。」
xAIはIWFの報告を認め、「緊急に調査している」と述べました。同社は、Grokの誤用を防ぐための取り組みを強調し、有害なコンテンツの生成を防ぐための追加の安全対策を実施するために取り組んでいると述べました。「私たちはこれらの報告に深く懸念しており、この問題に対処するために直ちに行動を起こしています」とxAIの広報担当者は述べています。
この事件は、CSAMの作成を含む、悪意のある目的でAIモデルが悪用される可能性に対する懸念の高まりを浮き彫りにしています。専門家は、AI画像生成技術の高度化により、そのようなコンテンツの検出と削除がより困難になっていると警告しています。AIが現実的でパーソナライズされた画像を生成できることは、テクノロジー業界にとって重大な倫理的および法的問題を引き起こします。
ベルリンのヘルティー・スクールの倫理とテクノロジーの教授であるジョアンナ・ブライソン博士は、「これはAIコミュニティ全体への警鐘です」と述べています。「AIモデルによるCSAMの作成を検出し、防止するための堅牢なメカニズムを開発し、開発者には技術の誤用に対する責任を負わせる必要があります。」
2023年11月に発売されたGrokは、テキストの生成、言語の翻訳、会話形式での質問への回答を行うように設計された大規模言語モデル(LLM)です。現在、イーロン・マスクのソーシャルメディアプラットフォームであるX Premium+(旧Twitter)の加入者が利用できます。Grokは、「スパイシーな質問」に答えられること、およびXプラットフォームとの統合によりリアルタイムの情報にアクセスできることで、他のAIチャットボットとは一線を画しています。
IWFの調査結果は、AIの安全プロトコルに対する監視を強化し、AI開発者に対する規制圧力を高める可能性があります。いくつかの国の議員はすでに、違法コンテンツの作成と拡散における誤用の可能性など、AIに関連するリスクに対処するための法律を検討しています。たとえば、欧州連合のAI法には、合成メディアの生成に使用されるものを含む、高リスクAIシステムを規制するための条項が含まれています。
調査の現在の状況は進行中です。xAIは、実施を計画している具体的な安全対策の詳細をまだ発表していません。IWFは、AIによって生成されたCSAMについてオンラインプラットフォームの監視を継続し、法執行機関と協力して犯罪者を特定し、起訴しています。この事件は、オンラインでの児童性的虐待との闘いにおいて、継続的な警戒と協力が必要であることを改めて強く認識させるものです。
Discussion
Join the conversation
Be the first to comment