미국 지방법원 판사는 OpenAI에 불리한 판결을 내려, 해당 회사에 뉴스 기관들이 저작권 침해 조사를 위해 2천만 건의 ChatGPT 로그에 접근할 수 있도록 강제했으며, 현재 해당 기관들은 잠재적으로 수백만 건의 삭제된 채팅에 대한 추가 접근을 요구하고 있다. 시드니 스타인 판사는 ChatGPT 사용자들의 개인 정보 보호 이익이 소송에서 로그의 필요성과 적절하게 균형을 이루었다고 판단한 오나 왕 치안판사의 이전 명령에 대한 OpenAI의 이의를 기각했다.
OpenAI는 로그 내에서 잠재적으로 침해하는 결과물을 식별하기 위해 검색어를 실행하고, 뉴스 원고들에게 관련 채팅에만 접근 권한을 부여하는 대안적인 접근 방식을 제안했다. 회사는 이것이 사용자 개인 정보 보호에 덜 부담이 될 것이라고 주장했다. 그러나 스타인 판사는 사용자 개인 정보 보호가 ChatGPT 사용자들의 신원을 보호하기 위한 조치를 포함한 원래 명령에서 충분히 보호되었다는 왕 판사의 평가를 옹호했다. 이러한 조치의 구체적인 내용은 이용 가능한 문서에 자세히 설명되어 있지 않다.
핵심 쟁점은 ChatGPT와 같은 대규모 언어 모델(LLM)을 훈련하는 데 저작권이 있는 자료를 사용하는 것과 관련이 있다. 이러한 모델은 책, 기사 및 기타 저작권이 있는 작품을 포함한 방대한 양의 텍스트 데이터를 처리하여 학습한다. 뉴스 기관들은 ChatGPT의 결과물이 때때로 저작권이 있는 콘텐츠를 직접 복제하거나 매우 유사하게 바꿔 쓰기 때문에 지적 재산권을 침해한다고 주장한다. 이 법적 싸움은 AI, 저작권법 및 사용자 개인 정보 보호의 복잡한 교차점을 강조한다.
뉴스 기관들은 현재 OpenAI에 대한 제재를 추진하고 있으며, 저작권 침해에 대한 추가 증거를 포함할 수 있다고 믿는 삭제된 채팅의 검색 및 공유를 요구하고 있다. 이러한 삭제된 채팅은 이전에는 접근할 수 없고 소송 범위 밖에 있는 것으로 여겨졌다. 원고들은 ChatGPT가 저작권이 있는 자료에 의존하는 정도를 완전히 이해하는 데 이 데이터에 대한 접근이 중요하다고 주장한다.
이 사건은 AI 개발자의 윤리적 및 법적 책임에 대한 더 광범위한 질문을 제기한다. LLM은 종종 저작권 소유자의 명시적인 허가 없이 인터넷에서 스크랩한 대규모 데이터 세트로 훈련된다. 이러한 관행은 수많은 소송과 AI 훈련 데이터의 투명성 강화를 요구하는 목소리로 이어졌다. 이 사건의 결과는 AI 생성 콘텐츠와 관련된 미래의 저작권 분쟁에 대한 선례를 세울 수 있다.
소송의 다음 단계는 불분명하지만, OpenAI는 현재 2천만 건의 ChatGPT 로그를 생성해야 한다. 그러면 뉴스 기관들은 이 데이터를 분석하여 잠재적인 저작권 침해 사례를 식별할 것이다. 법적 싸움은 양측이 관련된 복잡한 법적 및 기술적 문제를 해결하기 위해 계속될 것으로 예상된다. 이 사건은 미국 지방법원에서 계속 진행 중이다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요