X(旧Twitter)の発表によると、イーロン・マスク氏のAIツール「Grok」は、現実の人物の写真を編集して露出度の高い服装で描写することが、そのような改変が違法となる法域ではできなくなる。この決定は、プラットフォームによって生成される性的AIディープフェイクの可能性に関する広範な懸念を受けたものだ。
マスク氏が所有するソーシャルメディアプラットフォームであるXは、「Grokアカウントが現実の人物の画像を露出度の高い服装で編集することを許可しないようにするための技術的措置を実施した」と述べた。この動きは、AIツールの潜在的な悪用に対する批判と規制当局の監視を受けたものだ。
英国政府はこの変更に対し、XにGrokを管理するよう求めてきたことの「正当性を示すもの」と評価した。規制当局Ofcomは、この進展を「歓迎する」と述べたが、プラットフォームが英国の法律に違反したかどうかについての調査は「依然として継続中である」と強調した。Ofcomは、「この問題を解決するために、昼夜を問わず取り組んでおり、何が問題だったのか、そして何が修正されているのかについて回答を得ようとしている」と述べた。
リズ・ケンダル技術担当大臣もこの変更を歓迎したが、「Ofcomによる継続的な調査によって、事実が完全に、そして確実に確立されることを期待する」と述べた。
2023年にXでローンチされたGrokは、画像編集を含むさまざまな種類のコンテンツを生成するように設計されたAIツールである。露出度の高い服装を含むディープフェイクの作成を防ぐためにXが実施した具体的な技術的措置は明らかにされていない。しかし、そのような措置には、画像認識アルゴリズム、コンテンツフィルタリング、およびユーザー報告メカニズムの組み合わせが含まれることが多い。画像認識アルゴリズムは、ヌードまたはわいせつなコンテンツを描写する画像を識別してフラグを立てるようにトレーニングできる。次に、コンテンツフィルターを使用して、そのような画像の生成または共有をブロックできる。ユーザー報告メカニズムを使用すると、ユーザーは不適切な可能性のあるコンテンツにフラグを立てて、Xのモデレーションチームによるレビューを受けることができる。
この事件は、AIがディープフェイクやその他の形態の操作されたコンテンツを作成するために使用される可能性に関する懸念が高まっていることを浮き彫りにしている。これらの懸念は、AIプラットフォームに対する規制当局の監視の強化と、AI技術の開発と展開における透明性と説明責任の向上を求める声につながっている。
活動家や被害者は、この変更が技術によってすでに引き起こされた損害を元に戻すには遅すぎると懸念を表明している。Xの発表で直接引用されていなかったジャーナリストで活動家のジェス・デイビス氏は、AIディープフェイクが個人を嫌がらせたり脅迫したりするために使用される可能性について声を上げてきた。
Discussion
Join the conversation
Be the first to comment