중국이 인공지능(AI) 개발을 대상으로 아동 보호, 자살 및 폭력 관련 유해 콘텐츠 예방에 초점을 맞춘 새로운 규정을 제안했습니다. 중국 사이버 공간 관리국(CAC)은 주말 동안 국내에서 운영되는 AI 기업에 대한 요구 사항을 명시한 규칙 초안을 발표했습니다.
제안된 규정은 AI 기반 챗봇의 증가와 취약 계층에 미치는 잠재적 영향을 다룹니다. 개발자는 AI 제품을 사용하는 어린이를 위해 개인 맞춤 설정 및 시간 제한을 구현해야 합니다. 또한 이 규칙은 미성년자에게 정서적 교감 서비스를 제공하기 전에 보호자의 동의를 얻도록 규정합니다.
주요 조항은 자살 예방에 중점을 둡니다. CAC에 따르면 챗봇 운영자는 자살 충동이나 자해를 암시하는 모든 대화에서 인간의 개입을 보장해야 합니다. 이 규정은 그러한 상황에서 사용자의 보호자 또는 비상 연락처에 즉시 통지하도록 규정합니다. 또한 이 규칙은 AI 모델이 도박을 조장하는 콘텐츠를 생성하는 것을 금지합니다.
이러한 조치는 중국에서 빠르게 진화하는 AI 환경을 규제하는 데 중요한 진전입니다. 이번 조치는 AI 기술의 안전 및 윤리적 영향에 대한 전 세계적인 감시가 강화되는 가운데 나온 것입니다. 이 규정은 최종 확정되면 중국 내에서 제공되는 모든 AI 제품 및 서비스에 적용됩니다.
인간과 유사한 텍스트를 생성하고 복잡한 대화에 참여할 수 있는 대규모 언어 모델(LLM)과 같은 정교한 AI 모델의 부상은 잠재적인 오용 및 의도치 않은 결과에 대한 우려를 불러일으켰습니다. LLM은 방대한 데이터 세트를 기반으로 훈련되어 질문에 답변하는 것부터 독창적인 콘텐츠를 만드는 것까지 광범위한 작업을 수행할 수 있습니다. 그러나 이는 또한 훈련 데이터에 존재하는 편향에 취약하고 잠재적으로 유해하거나 오해의 소지가 있는 정보를 생성할 수 있음을 의미합니다.
중국 정부의 이 이니셔티브는 이러한 위험, 특히 아동의 복지에 대한 위험을 완화하기 위한 사전 예방적 접근 방식을 반영합니다. 규정은 유해 콘텐츠로부터 보호하고 부모의 동의를 요구함으로써 어린 사용자를 위한 더 안전한 온라인 환경을 조성하는 것을 목표로 합니다. 자살 충동의 경우 인간의 개입에 초점을 맞추는 것은 기술적 솔루션과 인간의 지원을 결합하는 것의 중요성을 강조합니다.
규칙 초안은 현재 검토 중이며 CAC는 규정을 확정하기 전에 업계 이해 관계자 및 대중으로부터 의견을 구할 것으로 예상됩니다. 이러한 규칙의 시행은 AI 규제 및 책임감 있는 개발 및 배포를 보장하는 데 어려움을 겪고 있는 다른 국가에 선례를 남길 수 있습니다. 이 규정은 기술 혁신과 사회적 복지 및 윤리적 고려 사항 간의 균형을 맞추겠다는 의지를 나타냅니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요