GoogleとCharacter.AIは、Character.AIのチャットボットとのやり取りの後、自殺したり自傷行為に及んだ10代の若者の遺族から起こされた訴訟の和解交渉を行っており、AI関連の被害に関するテクノロジー業界初の重要な法的和解となる可能性があります。両当事者は原則合意に達していますが、現在、和解の詳細を詰めている段階です。
これらの訴訟は、AI企業がユーザーに損害を与えたとして訴える最初の法的措置の一部であり、同様の訴えに対して弁護しているOpenAIやMetaなどの他のAI開発企業に大きな影響を与える可能性があります。元Googleのエンジニアによって2021年に設立されたCharacter.AIは、ユーザーがAIペルソナと会話できるようにするものです。2024年、Googleは27億ドル相当の取引で同社を再買収しました。
最も注目されている事例の1つは、セウェル・セッツァー3世の事例です。彼は14歳で、自身の命を絶つ前に、デナーリス・ターガリエンをモデルにしたAIペルソナと性的な会話を交わしていました。セッツァーの母親であるメーガン・ガルシアは、上院で証言し、子供たちの死につながる有害なAI技術を意図的に設計する企業に対する法的責任を提唱しました。別の訴訟では、チャットボットが自傷行為を促し、両親を殺害することが合理的な行動であると示唆したとされる17歳の若者の経験が詳しく述べられています。
争点となっている核心的な問題は、AIチャットボットが脆弱な人々、特に10代の若者に影響を与える可能性と、AI企業がこれらのリスクを軽減する責任です。AIチャットボットは、大規模言語モデル(LLM)、つまり、膨大なテキストとコードのデータセットでトレーニングされた複雑なアルゴリズムを利用して、人間のような応答を生成します。これらのモデルは、魅力的で有益なインタラクションを提供するように設計されていますが、有害なコンテンツや行動を促進するために操作または悪用される可能性もあります。訴訟では、Character.AIがこれらのリスクに対する適切な保護措置を講じなかったため、悲劇的な結果につながったと主張しています。
これらの和解の結果は、AI企業に対する将来の訴訟の先例となり、より厳格な規制とAI安全プロトコルのより厳密な監視につながる可能性があります。「企業は、子供たちを殺す有害なAI技術を意図的に設計した場合、法的に責任を負わなければなりません」とガルシアは上院での証言で述べました。和解はまた、AI倫理ガイドラインとベストプラクティスの開発に影響を与え、企業がAI技術の設計と展開においてユーザーの安全と幸福を優先するように促す可能性があります。
交渉は進行中であり、和解の最終的な条件はまだ明らかにされていません。しかし、GoogleとCharacter.AIがこれらの議論に参加しているという事実は、AI技術に関連する潜在的な法的および倫理的責任に対する認識が高まっていることを示しています。和解には、関係する家族への金銭的補償と、AI安全対策を改善するという企業からのコミットメントが含まれると予想されます。法曹界とテクノロジー業界は、これらの動向がAI規制と責任の将来を形作ると予想して、注視しています。
Discussion
Join the conversation
Be the first to comment