중국이 인공지능(AI)을 규제하는 새로운 규정을 제안하고 있는데, 그 목표는 어린이를 보호하고 AI 챗봇이 자해나 폭력으로 이어질 수 있는 조언을 제공하는 것을 막기 위함이다. 중국 사이버 공간 관리국(CAC)은 주말에 초안 규칙을 발표하여 AI 기업이 어린 사용자를 위해 개인화된 설정과 사용 시간 제한을 제공하도록 요구하는 조치를 제시했다.
제안된 규정은 또한 AI 기업이 어린이에게 정서적 동반자 서비스를 제공하기 전에 보호자의 동의를 얻어야 한다고 규정한다. 또한 CAC에 따르면 챗봇 운영자는 자살 또는 자해와 관련된 모든 대화에서 사람이 인계받아 사용자 보호자 또는 비상 연락처에 즉시 알려야 한다. 이 규칙은 또한 AI 모델이 도박을 조장하는 콘텐츠를 생성하는 것을 방지하는 것을 목표로 한다.
이러한 규정은 일단 확정되면 중국 내에서 운영되는 AI 제품 및 서비스에 적용된다. 이는 급속도로 확장되고 있는 AI 부문을 규제하는 중요한 단계이며, AI 부문은 올해 내내 안전 문제에 대한 감시가 강화되었다. 이번 조치는 중국과 전 세계에서 AI 챗봇 출시가 급증한 데 따른 것이다.
이번 개발은 특히 텍스트, 이미지 및 기타 콘텐츠를 생성할 수 있는 생성형 AI와 관련된 윤리적 의미와 잠재적 위험에 대한 전 세계적인 우려가 커지고 있음을 반영한다. 전문가들은 잠재적인 피해를 완화하기 위해 책임감 있는 AI 개발 및 배포의 필요성을 강조한다.
CAC가 제안한 규칙은 AI 거버넌스에 대한 중국 정부의 적극적인 접근 방식을 강조한다. 이 규정은 아동 안전 및 정신 건강과 관련된 특정 문제를 다루며, AI 기술이 책임감 있고 윤리적으로 사용되도록 보장하려는 광범위한 노력을 반영한다.
초안 규칙은 현재 공개 의견 수렴을 위해 공개되었으며 CAC는 규정을 확정하기 전에 피드백을 고려할 것으로 예상된다. 이러한 규칙의 시행은 AI 거버넌스 문제로 어려움을 겪고 있는 다른 국가에 선례를 남길 수 있다. 이 규정은 중국에서 운영되는 AI 개발자 및 서비스 제공업체에 영향을 미쳐 새로운 요구 사항을 준수하도록 제품 및 서비스를 조정해야 할 것으로 예상된다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요