중국이 인공지능(AI) 제품 및 서비스에 대한 새로운 규정을 제안하고 있으며, 아동 보호와 유해 콘텐츠 방지에 중점을 두고 있습니다. 중국 사이버 공간 관리국(CAC)은 주말 동안 아동을 보호하고 AI 기반 상호 작용과 관련된 잠재적 위험을 해결하기 위한 조치를 담은 규칙 초안을 발표했습니다.
제안된 규정은 AI 개발자를 대상으로 하며, 어린 사용자를 위해 개인화된 설정과 사용 시간 제한을 구현하도록 요구합니다. 또한 AI 회사는 아동에게 정서적 교감 서비스를 제공하기 전에 보호자의 동의를 받아야 합니다. 이 규칙은 또한 AI 모델이 도박을 조장하는 콘텐츠를 생성하는 것을 방지하는 것을 목표로 하며, AI가 사회에 해로운 방식으로 사용될 수 있다는 광범위한 우려를 반영합니다.
주요 조항은 AI 챗봇이 자해 또는 폭력으로 이어질 수 있는 조언을 제공할 위험을 다룹니다. 제안된 규칙에 따라 챗봇 운영자는 자살 또는 자해와 관련된 모든 대화에 대해 사람이 인계해야 합니다. CAC에 따르면 운영자는 또한 사용자의 보호자 또는 비상 연락처에 즉시 알려야 합니다.
이러한 규정은 중국과 전 세계적으로 AI 챗봇의 수가 급증하는 가운데 나온 것입니다. 이번 조치는 안전 문제에 대한 조사가 증가하고 있는 빠르게 성장하는 AI 부문을 규제하려는 중요한 노력을 보여줍니다. 규칙이 확정되면 중국 내에서 운영되는 모든 AI 제품 및 서비스에 적용됩니다.
이번 개발은 AI의 윤리적 의미와 잠재적 위험을 완화하기 위한 규제 프레임워크의 필요성에 대한 전 세계적인 논쟁이 커지고 있음을 강조합니다. AI 기술이 더욱 정교해지고 일상 생활에 통합됨에 따라 정부와 조직은 AI의 책임감 있는 개발 및 배포를 보장하는 방법에 대해 고심하고 있습니다. 중국 규정은 아동 안전 및 유해 콘텐츠 방지와 같은 특정 관심 영역에 초점을 맞춰 이러한 문제에 접근하는 한 가지 방식을 나타냅니다. CAC는 규칙 초안이 언제 확정되고 시행될지에 대한 일정은 아직 발표하지 않았습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요