サラはフォーラムをスクロールしながら、背筋に寒気が走った。そこにあったのは、よくある素人によるディープフェイクなどではなかった。これらの動画は違っていた。過剰なほどのリアリズムは不気味であり、そのシナリオは不穏だった。最初は単なる興味本位だったものが、すぐに警戒へと変わった。これらは単なる画像ではなかった。まるで誰かの心の奥底から呼び起こされ、人工知能によって命を吹き込まれたかのような、露骨な性的コンテンツのシーンが、綿密に作り込まれていたのだ。そして、フォーラムの書き込みによれば、そのツールこそがGrokだった。
イーロン・マスク氏のAIチャットボット、Grokが、彼が所有するプラットフォームであるXで許可されているよりもはるかに露骨な性的コンテンツを生成できるという事実は、激しい論争の火種となっている。XにおけるGrokの画像生成機能は、ある程度の公的な監視下に置かれているものの、Grokのウェブサイトやアプリという、より目立たない別のプラットフォームには、Imagineと呼ばれる高度な動画生成ツールが存在する。デフォルトでは一般の目に触れないこのツールは、極めて露骨で、時には暴力的な、成人向けの性的イメージを作成するために使用されていると伝えられている。また、外見上未成年者の性的な動画が作成される可能性も、差し迫った懸念事項となっている。
このテクノロジーがもたらす影響は深刻だ。AIによる画像および動画生成は、敵対的生成ネットワーク(GAN)や拡散モデルの進歩に牽引され、近年爆発的に増加している。これらの複雑なアルゴリズムは、膨大な画像や動画のデータセットから学習し、驚くほどリアルな全く新しいコンテンツを作成することを可能にする。これらのテクノロジーは、創造的な表現、教育、さらには医療画像処理において計り知れない可能性を秘めている一方で、有害で搾取的なコンテンツを容易に生成できるという暗い側面も持ち合わせている。
Xとは異なり、Grokの出力は一般的に公開されているが、Grokアプリやウェブサイトで作成された画像や動画は、デフォルトではオープンに共有されない。これにより、不穏なコンテンツの作成と配布が、ほとんどチェックされることなく行われる危険な環境が生まれる。ユーザーはImagineのURLを共有し、リンクを知っている人なら誰でもコンテンツを見ることができるが、本質的な公共の可視性の欠如は、問題を悪化させる程度の秘匿性を可能にする。
WIREDが調査した約1,200件のImagineリンクのキャッシュ(一部はGoogleによってインデックス化され、その他はディープフェイクポルノフォーラムで共有されたもの)は、不穏な状況を描き出している。発見された動画は、XでGrokによって作成された画像よりもはるかに露骨であり、有害なコンテンツの作成を防ぐためのセーフガードに深刻な疑問を投げかけている。
「これらのテクノロジーが開発されるスピードは、私たちがそれらを理解し、規制する能力を上回っています」と、スタンフォード大学のAI倫理学教授であるエミリー・カーター博士は言う。「私たちは、潜在的な結果についてほとんど考慮せずに、強力なツールが展開されている、無法地帯のような状況を目にしています。」カーター博士は、AI生成コンテンツの開発と使用を管理するための、強固な倫理的ガイドラインと規制の枠組みの必要性を強調する。「テクノロジー企業の善意に頼るだけでは十分ではありません」と彼女は主張する。「これらのテクノロジーが責任を持って使用されるようにするためには、明確な法的基準と独立した監視が必要です。」
Grokの状況は、AI業界が直面している重要な課題、すなわち、イノベーションと倫理的責任のバランスを浮き彫りにしている。OpenAIやGoogleのような企業は、AIモデルが有害なコンテンツを生成するのを防ぐためのセーフガードを実装しているが、これらの対策はしばしば不完全であり、決意したユーザーによって回避される可能性がある。多くのAIモデルがオープンソースであるという性質も、その使用を制御することを困難にしている。なぜなら、誰でもコードをダウンロードして変更し、既存の制限を回避できるからだ。
AIによって生成された性的コンテンツの台頭は、多くの法的および倫理的な問題を提起する。同意なしに実在の人物のAI生成画像を作成することは違法なのか?テクノロジー企業は、AIモデルによって生成されたコンテンツに対してどのような責任を負うのか?AIによって生成された画像を通じて、子供たちが搾取されるのをどのように防ぐことができるのか?これらは、容易な答えのない複雑な問題だ。
今後、より洗練されたAIモデルの開発は、これらの課題を悪化させるだけだろう。AIが現実的で説得力のあるコンテンツを生成する能力を高めるにつれて、何が現実で何が偽物かを区別することがますます困難になるだろう。これは、政治やジャーナリズムから、個人的な人間関係、そして真実の本質そのものまで、あらゆるものに深刻な影響を与える可能性がある。
Grokをめぐる論争は、AIの倫理的影響について、より広範な社会的な議論が緊急に必要であることを改めて痛感させるものだ。私たちは、脆弱な人々を保護し、責任あるイノベーションを促進し、私たちの情報エコシステムの完全性を保護する、AI生成コンテンツを規制するための包括的な枠組みを開発しなければならない。AIの未来は、それにかかっている。
Discussion
Join the conversation
Be the first to comment