イギリスの通信規制当局であるOfcom(オフコム)は、X(旧Twitter)に対し、同社のGrok AIモデルが子供の性的な画像を生成しているという報告に関して、情報提供を要請しました。この要請は、生成AIの潜在的な悪用とその児童の安全への影響に対する懸念の高まりを受けたものです。
Ofcomは、Xがそのような画像の作成と拡散を防ぐために講じている安全対策の詳細を求めています。これには、Grokの開発に使用されたトレーニングデータ、不適切なコンテンツを特定して削除するために採用されているフィルターおよび検出メカニズム、ユーザーからの苦情の報告と対応に関するプロセスが含まれます。
Grokのような生成AIモデルは、膨大なテキストと画像のデータセットでトレーニングされており、現実世界のシナリオを模倣できる新しいコンテンツを作成できます。しかし、この機能は、悪意のある者が児童性的虐待画像(CSAM)の作成など、有害な目的でこれらのモデルを悪用する可能性についての懸念も引き起こします。これらのモデルのトレーニングプロセスには、データ内のパターンと関係を学習する複雑なアルゴリズムが含まれます。トレーニングデータに偏った、または不適切なコンテンツが含まれている場合、モデルは意図せずにこれらの偏りを再現または増幅する可能性があります。
Ofcomの広報担当者は、「AIが悪用され、有害なコンテンツ、特に子供を搾取するコンテンツが作成される可能性について深く懸念しています」と述べました。「これらのリスクを軽減し、ユーザーの安全を確保するためにXが講じている措置を理解するため、Xと協力しています。」
XはOfcomからの要請を認め、調査に全面的に協力していると述べました。同社は、CSAMの作成と配布を禁止するための厳格なポリシーを実施しており、AIを責任を持って使用することに尽力していると主張しています。また、検出および防止メカニズムの改善に継続的に取り組んでいると述べています。
この事件は、AIの規制と倫理的な開発および展開を確保するという、より広範な課題を浮き彫りにしています。専門家は、規制当局、テクノロジー企業、市民社会組織間の連携を含む、多面的なアプローチが必要であると主張しています。これには、堅牢な技術的安全対策の開発、明確な法的枠組みの確立、AIのリスクと利点に関する一般の認識の向上が含まれます。
AI規制の最新の動向には、欧州連合のAI法など、国際レベルでの継続的な議論が含まれており、AIの開発と利用のための包括的な法的枠組みを確立することを目的としています。これらの規制は、AIが世界中でどのように開発および展開されるかに大きな影響を与える可能性があります。OfcomによるXのGrok AIモデルの調査は、AIの潜在的な害に対処し、AIが社会に利益をもたらす方法で使用されるようにするための、より広範な取り組みの一環です。この調査の結果は、他のAI開発者やプラットフォームに影響を与える可能性があり、生成AIに関連するリスクにどのように対処することが期待されるかの先例となる可能性があります。
Discussion
Join the conversation
Be the first to comment