政府は、特に現実的な合成メディアを生成できる新しい人工知能モデルであるGrok AIの登場を受けて、ディープフェイクに対処する法律の施行を遅らせているとして批判にさらされています。批評家たちは、技術がより洗練され、アクセスしやすくなるにつれて、この遅延が国民を誤った情報や操作に対して脆弱にしていると主張しています。
この非難は、ディープフェイクの作成と配布を規制することを目的とした法案の進捗の遅さにあるとされています。6か月前に最初に起草されたこの法案は、議会委員会による審査が続いており、法律として成立する明確な時期は示されていません。AI倫理の第一人者であるローラ・クレス氏は、今週初めに発表された声明の中で、「待てば待つほど、悪意のある者がこれらの技術を悪用する機会が増える」と述べています。「虐待を阻止し、加害者に責任を負わせるための法的枠組みが必要です。」
「ディープラーニングフェイク」の略であるディープフェイクは、通常ビデオやオーディオ録音などの合成メディアであり、その中で人の容姿や声がデジタル的に操作され、実際には言ったり行ったりしなかったことを言ったり行ったりするように描写されます。これらは、高度な人工知能技術、特にディープラーニングアルゴリズムを使用して作成され、大量のデータを分析して人間のスピーチや行動のパターンを学習し、複製します。イーロン・マスク氏の人工知能会社であるxAIによって開発されたGrok AIは、ますます現実的なディープフェイクを生成できる一連のAIモデルの最新版です。説得力のある合成コンテンツを迅速に作成できるその能力は、悪用の可能性に対する懸念を高めています。
ディープフェイクの影響は、単なるエンターテインメントにとどまりません。それらは、偽情報を広め、評判を傷つけ、選挙に影響を与え、さらには暴力を扇動するために使用される可能性があります。明確な法的ガイドラインがないため、悪意のあるディープフェイクを作成および配布する個人を起訴することは困難です。名誉毀損や詐欺に対処する法律など、現在の法律では、この技術がもたらす特有の課題に対処するには不十分な場合があります。
法学者のアーニャ・シャルマ博士は、「既存の法的枠組みは、ディープフェイク技術のスピードと洗練さに対応できるほど整っていません」と説明しました。「ディープフェイクの作成、配布、およびその背後にある意図に対処する特定の法律が必要です。」
政府は、あらゆる法律が効果的であり、AI技術の正当な使用を妨げないように、慎重かつ検討されたアプローチを取っていると述べ、そのアプローチを擁護しています。技術省の報道官は、委員会は国民を保護することとイノベーションを促進することの適切なバランスを取る法案を作成するために、ディープフェイクの技術的および法的複雑さを注意深く検討していると述べました。報道官はまた、政府は法律が堅牢で将来に対応できるように、AI、法律、倫理の専門家と協議していると付け加えました。
しかし、批評家たちは、技術開発の急速なペースを考えると、政府の対応は不十分であると主張し、懐疑的なままです。彼らは、中国や欧州連合など、すでにディープフェイクを規制する法律を制定している他の国々を、積極的な行動の例として挙げています。ディープフェイク法に関する議論は、今後数か月で継続される可能性が高く、合成メディアの脅威の増大に対処するために断固たる行動を取るよう政府への圧力が強まっています。議会委員会は、次の四半期に提案された法案に関する報告書を発表する予定であり、それは国内のディープフェイク規制の将来を形作る可能性があります。
Discussion
Join the conversation
Be the first to comment