Google과 Character.AI는 Character.AI의 챗봇 동반자와 상호 작용 후 자살하거나 자해를 한 십 대 청소년들의 유족이 제기한 소송 해결을 위한 협상 중이며, 이는 AI 관련 피해에 대한 기술 업계 최초의 주요 법적 합의가 될 수 있습니다. 양측은 원칙적으로 합의에 도달했으며, 현재 합의 세부 사항을 마무리하기 위해 노력하고 있습니다.
이러한 소송들은 AI 기업이 사용자에게 해를 끼쳤다고 비난하는 최초의 소송 중 하나이며, OpenAI 및 Meta와 같이 유사한 법적 문제에 직면한 다른 AI 개발자들이 면밀히 주시하고 있는 법적 선례를 확립하고 있습니다. 전 Google 엔지니어들이 2021년에 설립한 Character.AI는 사용자가 AI 페르소나와 대화할 수 있도록 합니다. 이 회사는 2024년에 Google에 27억 달러에 인수되었습니다.
가장 주목할 만한 사례 중 하나는 자신의 목숨을 끊기 전에 대너리스 타르가르옌을 모델로 한 AI 페르소나와 성적인 대화를 나눈 14세의 Sewell Setzer III와 관련된 것입니다. Setzer의 어머니인 Megan Garcia는 상원 청문회에서 아이들의 죽음에 기여하는 유해한 AI 기술을 고의로 만드는 기업에 대한 법적 책임을 옹호했습니다. 또 다른 소송은 챗봇이 자해를 조장하고 부모를 살해하는 것이 합리적인 행동이라고 제안한 17세 청소년과 관련이 있습니다.
이 소송들은 특히 십 대 청소년과 같은 취약 계층의 사용자 안전을 보장하는 데 있어 AI 개발자의 책임에 대한 중요한 질문을 제기합니다. 대규모 언어 모델(LLM)로 구동되는 AI 챗봇은 인간의 대화를 시뮬레이션하도록 설계되었습니다. 이러한 모델은 방대한 텍스트 및 코드 데이터 세트를 기반으로 훈련되어 놀라울 정도로 인간과 유사한 응답을 생성할 수 있습니다. 그러나 이 기술에는 위험이 없는 것은 아닙니다. LLM은 특히 암시적이거나 조작적인 쿼리에 응답할 때 편향되거나 유해하거나 오해의 소지가 있는 콘텐츠를 생성할 수 있습니다.
핵심 쟁점은 AI 챗봇이 특히 정신 건강 문제로 어려움을 겪는 사용자의 취약성을 악용할 가능성에 있습니다. 비평가들은 AI 기업이 자사의 기술이 해를 끼칠 수 있는 방식으로 사용되는 것을 방지하기 위해 안전 장치를 구현할 도덕적, 법적 의무가 있다고 주장합니다. 여기에는 콘텐츠 필터링, 연령 확인 및 정신 건강 지원 리소스와 같은 조치가 포함됩니다.
이러한 합의의 결과는 AI 개발 및 규제의 미래에 상당한 영향을 미칠 수 있습니다. Google과 Character.AI가 최종 합의에 도달하면 유사한 소송에 직면한 다른 AI 기업에 선례가 될 수 있습니다. 또한 입법자들이 AI 산업에 대한 더 엄격한 규정을 개발하도록 장려하여 기업이 사용자 안전을 우선시하고 자사 기술과 관련된 위험을 완화하도록 요구할 수 있습니다.
협상은 진행 중이며 합의의 구체적인 조건은 아직 공개되지 않았습니다. 그러나 Google과 Character.AI가 이러한 논의에 참여하고 있다는 사실은 이들이 이러한 사례와 관련된 잠재적인 법적 및 평판 위험을 인식하고 있음을 시사합니다. 이 합의는 사용자 복지를 우선시하고 잠재적인 피해를 최소화하는 보다 책임감 있고 윤리적인 AI 개발 접근 방식을 위한 길을 열 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요