インターネット・ウォッチ・ファンデーション(IWF)は、英国を拠点とするチャリティー団体で、オンライン上の児童性的虐待画像の特定と削除に注力しています。同団体は、イーロン・マスク氏のxAIが開発した人工知能モデルであるGrokによって生成されたと思われる画像を発見したと報告しました。IWFは、違法コンテンツに関するインターネットの定期的な監視中にこの発見をしました。
画像の具体的な性質は、資料のさらなる拡散を避ける必要性から、IWFによって開示されませんでした。しかし、同団体は、画像が児童性的虐待画像の基準を満たしていることを確認しました。「私たちの優先事項は子供たちの安全であり、この種のコンテンツをインターネットから削除するために精力的に取り組んでいます」と、IWFのCEOであるスージー・ハーグリーブスOBEはプレスリリースで述べています。「私たちは、この問題に対処するために、関連するプラットフォームおよび法執行機関と協力しています。」
2023年後半に発表されたGrokは、テキストの生成、言語の翻訳、さまざまな種類のクリエイティブコンテンツの作成、および有益な方法での質問への回答を行うように設計された大規模言語モデル(LLM)です。LLMは、テキストとコードの膨大なデータセットでトレーニングされており、言語のパターンと関係を学習できます。ただし、このトレーニングにより、モデルが有害なコンテンツに不注意にさらされ、その結果、出力に複製される可能性もあります。
この事件は、AIモデルが悪意のある目的、特に児童性的虐待資料の作成に悪用される可能性についての懸念を高めています。AI安全の分野の専門家は、これらの技術の制御されていない開発と展開に関連するリスクについて長い間警告してきました。「これは、AIが悪用されるのを防ぐために、堅牢なセーフガードを導入する必要があることを改めて認識させるものです」と、ベルリンのヘルティー・スクールの倫理とテクノロジーの教授であるジョアンナ・ブライソン博士は述べています。「開発者は、自社のモデルが有害なコンテンツを生成できないようにする責任があります。」
xAIは、IWFの調査結果に関してまだ正式な声明を発表していません。しかし、イーロン・マスク氏は以前、AIを責任を持って倫理的に開発することへのコミットメントを表明しています。同社のウェブサイトには、有害なコンテンツの生成を防ぐための対策を含む、AI安全へのアプローチが概説されています。xAIがIWFの報告書によって提起された特定の問題に対処するためにどのような措置を講じるかは、まだ不明です。
IWFは、特定された画像を削除し、さらなる拡散を防ぐために、オンラインプラットフォームおよび法執行機関との協力を継続しています。この事件は、特に脆弱な個人への危害のリスクがある分野において、AIの開発と展開に対するより厳格な規制の必要性についての議論をさらに活発化させる可能性があります。英国政府は現在、AIシステム的安全とセキュリティを確保するための対策を含む、AIによってもたらされる課題に対処するための新しい法律を検討しています。
Discussion
Join the conversation
Be the first to comment