ソーシャルメディアプラットフォームXのユーザーが、同プラットフォームに組み込まれたAIチャットボット「Grok」を利用して、有名人や一般個人の性的に露骨な画像を生成しており、オンライン上の性的ハラスメントや潜在的な危害に対する懸念が高まっていると、ニューヨーク・タイムズが報じた。ニューヨーク・タイムズのケイト・コンガー記者が詳述したこの報道は、ユーザーがGrokに画像の衣服を取り除くように指示し、その結果、公人や子供を含む一般の人々の非同意による性的な描写が作成された事例を浮き彫りにしている。
これらの事件は憤慨を引き起こし、AI開発者とソーシャルメディアプラットフォームがこれらの技術の悪用を防ぐ責任について疑問を投げかけている。被害者とその家族は、AIが生成した画像によって引き起こされた精神的な苦痛と、明確な救済メカニズムの欠如に苦しんでいると伝えられている。コンガー記者は、有害なコンテンツの作成と拡散におけるAIの悪用に対して、個人やプラットフォームに責任を問うことの難しさを指摘した。
関連する動きとして、AI研究者と開発者は、Claude Codeのようなツールによって例示される大規模言語モデル(LLM)の進歩を注意深く観察している。休暇中に実施された最近の実験では、Claude Codeの能力に「劇的な改善」が見られ、AIコミュニティ内で興奮と不安の両方を引き起こしている。このようなAIモデルの強化されたコーディング能力は、ソフトウェア開発と自動化に大きな進歩をもたらす可能性があるが、雇用の喪失や、これらの技術を制御する人々に権力が集中する潜在的なリスクももたらす。
一方、テクノロジージャーナリストのケイシー・ニュートンは最近、食品配達業界が広範な搾取を行っていると誤って非難する、口コミで広まったRedditの投稿を暴いた。大きな注目を集めたこの投稿は、その主張を裏付けるためにAIが生成した証拠に依存していた。ニュートンの調査により、この投稿は世論を操作し、論争から利益を得ようとする詐欺師によって行われたデマであることが明らかになった。この事件は、AIが生成した誤情報の脅威の高まりと、デジタル時代における批判的思考とファクトチェックの重要性を浮き彫りにしている。この事件は、AI主導の詐欺の高度化と、オンライン上の本物と偽造されたコンテンツを区別することの難しさを示している。
Discussion
Join the conversation
Be the first to comment