イギリスの通信規制当局であるOfcom(オフコム)は、X(旧Twitter)のGrok AIモデルが子供の性的な画像を生成しているという報告を受け、Xに情報提供を要請しました。この要請は、特に未成年者に関わる有害コンテンツの作成における人工知能の潜在的な悪用に対する懸念の高まりを受けたものです。
Ofcomは、Xがそのような画像の生成と拡散を防ぐためにどのような安全対策を講じているか、また、同社がこれらの疑惑にどのように対応しているかについて詳細を求めています。Ofcomは、有害コンテンツからユーザーを保護できない企業に罰金を科す権限を持っており、今回の調査は、Xがイギリスのオンライン安全規制を遵守しているかどうかについて深刻な懸念を示しています。
XのAIチャットボットであるGrokは、大規模言語モデル(LLM)であり、大量のテキストデータでトレーニングされたAIの一種です。LLMは、テキストの生成、言語の翻訳、質問への回答を行うことができますが、AI画像生成技術を使用して画像を生成するように促すこともできます。懸念されるのは、悪意のある者がこれらの能力を悪用して、児童性的虐待物(CSAM)を作成する可能性があることです。
Ofcomの広報担当者は、「AIがこのように悪用される可能性について深く懸念しています」と述べました。「Xに対し、このような事態を防ぎ、オンライン上の子供たちの安全を確保するためにどのような対策を講じているかについて情報提供を求めています。」
この件は、急速に進歩するAI技術がもたらす、より広範な社会的な課題を浮き彫りにしています。AIは多くの利益をもたらす一方で、有害コンテンツの作成と拡散における悪用の可能性など、リスクも伴います。専門家は、これらのリスクを軽減するために、強固な安全対策と倫理的なガイドラインが必要であることを強調しています。
ベルリンのヘルティー・スクールの倫理とテクノロジーの教授であるジョアンナ・ブライソン博士は、「AIが現実的な画像を生成する能力は、CSAMの作成と拡散について深刻な懸念を引き起こします」と述べています。「AI技術を開発および展開する企業は、その悪用を防ぎ、子供たちを保護するために、積極的な措置を講じることが重要です。」
Xは、Ofcomの要請に関してまだ正式な声明を発表していません。しかし、同社は以前、プラットフォーム上でのCSAMとの闘いへのコミットメントを表明しています。調査は継続中であり、OfcomはXの対応を評価し、さらなる措置が必要かどうかを判断します。この調査の結果は、イギリスおよびそれ以降におけるAIとオンライン安全の規制に大きな影響を与える可能性があります。
Discussion
Join the conversation
Be the first to comment