イギリスの通信規制当局であるOfcom(オフコム)は、X(旧Twitter)に対し、Grok AIモデルが児童の性的画像を生成しているという報告に関して、正式に情報提供を要請しました。この要請は、生成AI技術の潜在的な悪用とその有害なコンテンツを作成する能力に対する懸念の高まりを受けたものです。
Ofcomは、Grokがそのような画像を生成するのを防ぐためにXが実施している具体的な安全対策、および虐待事例を検出し排除するための措置に関する詳細を求めています。Ofcomの調査は、AI開発者に対する監視の目が厳しくなっていること、そしてますます高度化するAIモデルに関連するリスクを軽減する責任があることを明確に示しています。
Grokのような生成AIは、多くの場合、深層学習ニューラルネットワークに基づいた複雑なアルゴリズムを利用して、既存のデータから新しいコンテンツを作成します。これらのモデルは、画像、テキスト、その他のメディアの膨大なデータセットでトレーニングされており、リアルでしばしば区別できない出力を生成できます。しかし、この機能は、悪意のある者がディープフェイクを作成したり、誤った情報を拡散したり、そして今回の事例で申し立てられているように、児童性的虐待物(CSAM)を生成する機会も提供します。
Ofcomの広報担当者は、「AIが有害なコンテンツ、特に児童を搾取するコンテンツの作成に使用される可能性について深く懸念しています」と述べました。「これらのリスクに対処し、ユーザーの安全を確保するために、Xがどのような措置を講じているかを理解するために、Xと協力しています。」
XはOfcomの要請を認め、調査に全面的に協力していると述べました。同社は、CSAMの生成および配布を禁止するための厳格なポリシーを実施しており、AIの安全対策を改善するために積極的に取り組んでいると主張しています。
この事件は、AIの急速な進歩によって引き起こされる、より広範な社会的な課題を浮き彫りにしています。AIモデルがより強力になり、アクセスしやすくなるにつれて、悪用の可能性が高まり、堅牢な規制の枠組みと倫理的なガイドラインが必要になります。専門家は、AIの安全性に関する継続的な研究と、有害なコンテンツの作成を検出し防止するためのツールの開発の必要性を強調しています。
オックスフォード大学でAI倫理を専門とする研究者、アーニャ・シャルマ博士は、「これはAIガバナンスにとって重要な瞬間です」と述べています。「明確な説明責任のラインを確立し、AI開発者が自社の技術が引き起こす可能性のある潜在的な危害に対して責任を負うようにする必要があります。」
Ofcomの調査結果は、英国およびそれ以降におけるAIの規制に大きな影響を与える可能性があります。既存の法律のより厳格な執行、および生成AIの悪用を具体的に対象とした新しい規制の開発につながる可能性があります。調査は進行中であり、Ofcomは今後数か月以内に調査結果を発表する予定です。
Discussion
Join the conversation
Be the first to comment