구글과 Character.AI는 Character.AI의 챗봇 동반자와 상호 작용 후 자살하거나 자해한 십 대 청소년들의 가족들이 제기한 소송을 해결하기 위해 협상 중입니다. 원칙적인 합의는 AI 관련 피해 주장에 대한 기술 업계의 첫 번째 주요 법적 합의가 될 수 있음을 시사합니다. 이러한 합의의 세부 사항을 마무리하는 과정이 남아 있습니다.
이러한 사례는 AI 기업이 사용자에게 해를 끼쳤다고 비난하는 초기 법적 조치의 일부를 나타냅니다. 그 결과는 OpenAI 및 Meta를 포함한 다른 AI 기업들이 유사한 소송에 직면함에 따라 선례를 만들 수 있습니다. 전 구글 엔지니어들이 2021년에 설립한 Character.AI는 사용자가 AI 페르소나와 대화할 수 있도록 합니다. 구글은 2024년에 27억 달러 규모의 거래로 회사를 재인수했습니다.
한 가지 주목할 만한 사례는 사망 전에 대너리스 타르가르옌 AI 챗봇과 성적으로 노골적인 대화를 나눈 14세의 Sewell Setzer III와 관련이 있습니다. Setzer의 어머니인 Megan Garcia는 상원 청문회에서 유해한 AI 기술을 의도적으로 만드는 기업에 대한 법적 책임을 옹호했습니다. Garcia는 "기업은 아이들을 죽이는 유해한 AI 기술을 의도적으로 설계할 때 법적 책임을 져야 합니다."라고 말했습니다. 또 다른 소송에서는 챗봇이 자해를 조장하고 부모에 대한 폭력을 암시했다고 주장하는 17세 청소년의 사례를 자세히 설명합니다.
이 소송은 AI 시스템의 행동에 대한 AI 개발자의 책임에 대한 복잡한 질문을 제기합니다. Character.AI의 플랫폼은 대규모 언어 모델(LLM)을 사용하여 응답을 생성하여 대화의 환상을 만듭니다. LLM은 방대한 텍스트 및 코드 데이터 세트로 훈련되어 인간과 유사한 텍스트를 예측하고 생성할 수 있습니다. 그러나 이 기술은 특히 사용자가 의도적으로 그러한 응답을 유도하려고 할 때 유해하거나 부적절한 콘텐츠를 생성하는 데 악용될 수도 있습니다.
합의는 AI 기술의 개발 및 규제에 영향을 미칠 수 있습니다. AI 기업이 시스템으로 인해 발생한 피해에 대해 책임을 지게 되면 더 엄격한 안전 조치 및 콘텐츠 조정 정책을 시행해야 할 수 있습니다. 여기에는 유해 콘텐츠 필터링 강화, 연령 확인 시스템 및 사용자 상호 작용에 대한 개선된 모니터링이 포함될 수 있습니다.
진행 중인 협상은 기술 업계와 법률 전문가들이 면밀히 주시하고 있습니다. 합의 조건은 법원과 기업이 AI 책임 문제에 어떻게 접근하고 있는지에 대한 통찰력을 제공할 수 있습니다. 결과는 또한 잠재적인 피해로부터 사용자를 보호하기 위해 AI 기술의 개발 및 배포를 규제하는 새로운 법률을 제정하도록 국회의원에게 촉구할 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요