중국이 인공지능(AI) 개발을 대상으로 하는 새로운 규정을 제안했으며, 아동 보호와 자살 및 폭력과 관련된 유해 콘텐츠 예방에 중점을 두고 있습니다. 중국 국가사이버정보판공실(CAC)은 주말 동안 AI 기업이 개인 맞춤형 설정 및 사용 시간 제한을 구현하고, 미성년자에게 정서적 교감 서비스를 제공하기 전에 보호자의 동의를 얻도록 요구하는 조치를 명시한 규칙 초안을 발표했습니다.
제안된 규칙은 중국 국내외에서 급증하는 AI 챗봇 문제를 다룹니다. 규칙이 확정되면 중국에서 운영되는 모든 AI 제품 및 서비스에 적용되어 기술을 둘러싼 안전 문제 증가에 대한 중요한 규제 조치가 될 것입니다. 또한 이 규정은 AI 모델이 도박을 조장하는 콘텐츠를 생성해서는 안 된다고 규정합니다.
주요 조항은 잠재적인 자해 사례에 대한 개입에 초점을 맞추고 있습니다. CAC에 따르면 챗봇 운영자는 자살 또는 자해와 관련된 모든 대화에 대해 사람이 직접 개입해야 합니다. 또한 사용자의 보호자 또는 비상 연락처에 즉시 알려야 합니다.
이러한 규정은 AI와 그 잠재적인 사회적 영향에 대한 전 세계적인 감시가 강화되는 가운데 발표되었습니다. AI는 핵심적으로 학습, 문제 해결, 의사 결정과 같이 일반적으로 인간의 지능을 필요로 하는 작업을 수행할 수 있는 컴퓨터 시스템을 만드는 것을 의미합니다. AI의 하위 집합인 생성형 AI는 텍스트, 이미지, 오디오를 포함한 새로운 콘텐츠를 생성할 수 있어 잠재적인 오용 및 허위 정보 확산에 대한 우려를 불러일으키고 있습니다.
중국 정부의 이러한 움직임은 급속하게 진화하는 이 기술을 규제하는 방법에 대해 고심하는 전 세계 정부의 광범위한 추세를 반영합니다. 예를 들어 유럽연합(EU)은 자체적인 포괄적인 AI 법안을 마련하고 있습니다. 이러한 규제 노력은 AI의 잠재적 이점과 편향, 개인 정보 보호 및 보안과 관련된 위험을 완화해야 할 필요성 사이의 균형을 맞추는 것을 목표로 합니다.
규칙 초안은 현재 공개 의견 수렴을 진행 중입니다. 최종 확정 및 시행에 대한 구체적인 일정은 아직 불분명하지만, 이번 발표는 중국이 자국 내 AI 개발 및 배포를 적극적으로 형성하려는 의도를 강조합니다. 이 규정은 교육 도구에서 엔터테인먼트 플랫폼에 이르기까지 광범위한 AI 애플리케이션에 잠재적으로 영향을 미칠 수 있으며, 유사한 조치를 고려하는 다른 국가에 모델 역할을 할 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요