政府は、特に現実的で誤解を招く可能性のあるコンテンツを生成できる新しい人工知能モデルであるGrok AIの登場を受けて、ディープフェイクに対抗するために設計された法律の施行を遅らせているとして批判にさらされています。批評家たちは、技術がより洗練され、アクセスしやすくなるにつれて、この遅延が国民を偽情報や操作に対して脆弱にしていると主張しています。
懸念の中心は、Grok AIや同様のモデルが、現実と区別するのが難しいディープフェイクのビデオやオーディオ録音を作成する可能性です。高度な機械学習技術を使用して作成されたディープフェイクは、個人が実際には言ったり行ったりしていないことを描写し、評判を傷つけたり、世論を操作したり、暴力を扇動したりする可能性があります。基盤となる技術には、しばしば敵対的生成ネットワーク(GAN)が含まれます。これは、2つのニューラルネットワークが互いに競い合い、一方が偽のコンテンツを生成し、もう一方がそれを検出しようとし、ますます現実的な出力を生み出します。
デジタル権利擁護者のローラ・クレスは、「ディープフェイクを規制するのを待てば待つほど、悪意のある者がこの技術を悪用する機会が増えます」と述べました。「Grok AIの能力は、その緊急性を増幅させるだけです。有害なディープフェイクの作成と配布を阻止し、加害者に責任を負わせるための明確な法的枠組みが必要です。」
提案されている法律は、ディープフェイク問題のいくつかの重要な側面に対処することを目的としています。これには、ディープフェイクを構成するものの定義、悪意のあるディープフェイクを作成または流布する者に対する法的責任の確立、およびプラットフォームにディープフェイクコンテンツを検出して削除するための措置の実施を義務付けることが含まれます。この遅延は、この問題に詳しい情報筋によると、法律の範囲に関する継続的な議論と、言論の自由の権利を侵害する可能性への懸念に起因しています。
過度に広範な規制は、芸術的表現や風刺など、AI技術の正当な使用を抑制する可能性があると主張する人もいます。また、言論の自由と、偽情報による個人や社会への危害からの保護とのバランスを取る必要性を強調する人もいます。この議論は、AIのような急速に進化する技術を規制することの複雑な課題を浮き彫りにしています。
技術社会研究所のAI倫理研究者であるアーニャ・シャルマ博士は、「適切なバランスを見つけることが重要です」と述べています。「イノベーションや表現の自由を不当に制限することなく、危害を防ぐのに効果的な規制が必要です。これには、Grok AIのようなAIモデルの技術的能力と、潜在的な社会的影響を慎重に検討する必要があります。」
政府は懸念を認識しており、ディープフェイクの脅威に対処することにコミットしていると述べています。当局は、法律はまだ検討中であり、さまざまな関係者からのフィードバックを取り入れるために取り組んでいることを示唆しています。ただし、法律がいつ最終決定され、施行されるかの具体的なスケジュールは示されていません。その間、専門家は、個人がオンラインコンテンツの批判的な消費者になり、ディープフェイクが誤った情報を広めるために使用される可能性に注意するように促しています。ディープフェイクを検出するためのツールの開発と展開も進行中ですが、多くの人が、これらのツールはAI技術の進歩に常に追いついていないことを認めています。
Discussion
Join the conversation
Be the first to comment