중국이 인공지능(AI) 제품 및 서비스에 대한 새로운 규정을 제안하고 있으며, 아동 보호와 유해 콘텐츠 방지에 중점을 두고 있습니다. 중국 사이버 공간 관리국(CAC)은 주말 동안 AI 모델이 도박을 조장하는 콘텐츠를 생성하지 않도록 하고 자해 또는 폭력의 위험으로부터 보호하기 위한 조치를 규정하는 초안 규칙을 발표했습니다.
제안된 규칙은 AI 챗봇의 증가와 취약 계층에 미치는 잠재적 영향에 대해 다룹니다. AI 기업은 아동 사용자를 위해 개인 맞춤 설정 및 사용 시간 제한을 제공해야 합니다. 또한 개발자는 AI를 통해 정서적 교감 서비스를 제공하기 전에 보호자의 동의를 받아야 합니다.
주요 조항은 자살 또는 자해와 관련된 챗봇 대화에 대한 인간의 개입을 의무화합니다. CAC에 따르면 챗봇 운영자는 그러한 대화를 인간이 이어받아 사용자의 보호자 또는 비상 연락처에 즉시 알려야 합니다.
이러한 규정은 중국에서 빠르게 진화하는 AI 환경을 규제하는 중요한 단계입니다. 이번 조치는 AI 기술의 안전 및 윤리적 영향에 대한 전 세계적인 우려가 커지고 있음을 반영합니다. 올해는 AI 안전에 대한 집중적인 조사가 있었으며, 정부와 기관은 전 세계적으로 규제 프레임워크를 고려하고 있습니다.
개인 맞춤 설정, 시간 제한 및 보호자 동의에 대한 특정 요구 사항은 중국 규제 접근 방식 내에서 아동 보호에 대한 강조를 보여줍니다. 민감한 대화에 대한 인간의 개입을 요구하는 규칙은 복잡한 감정적 상황을 처리하는 데 있어 현재 AI 기술의 한계를 강조합니다.
규정이 확정되면 중국 내에서 운영되는 모든 AI 제품 및 서비스에 적용됩니다. CAC의 발표는 중국 및 국제적으로 AI 챗봇의 개발 및 배포가 급증한 데 따른 것입니다. 새로운 규칙은 AI 기반 상호 작용의 확산과 관련된 잠재적 위험을 해결하는 것을 목표로 합니다.
초안 규칙은 현재 검토 중이며 CAC는 아직 최종 확정 및 시행 일정을 발표하지 않았습니다. 이번 개발은 AI 개발자, 기술 회사 및 정책 입안자들이 다른 국가의 AI 규제에 대한 선례가 될 수 있으므로 면밀히 주시하고 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요