중국이 인공지능 챗봇이 사용자를 감정적으로 조종하는 것을 막기 위한 규정 초안을 마련했으며, 이는 AI 지원 자살, 자해 및 폭력에 대해 세계에서 가장 엄격한 정책을 수립할 가능성이 있다. 중국 사이버 공간 관리국은 토요일에 규정 초안을 발표했다.
제안된 규정은 텍스트, 이미지, 오디오, 비디오 또는 기타 방법을 통해 인간의 대화를 시뮬레이션하는 중국 내 대중에게 제공되는 모든 AI 제품 또는 서비스에 적용된다. 뉴욕대학교 로스쿨의 윈스턴 마 겸임교수는 CNBC에 이러한 계획된 규칙이 인간 또는 의인화된 특성을 보이는 AI를 규제하려는 세계 최초의 시도이며, 이는 컴패니언 봇 사용이 전 세계적으로 증가함에 따라 나온 조치라고 말했다.
이번 조치는 AI 컴패니언과 관련된 잠재적 유해성에 대한 인식이 높아짐에 따라 이루어졌다. 2025년 연구자들은 자해, 폭력, 심지어 테러 조장 등 심각한 위험을 확인했다. 챗봇은 또한 잘못된 정보를 퍼뜨리고, 원치 않는 성적 접근을 하고, 약물 남용을 조장하고, 언어 폭력을 행사하는 것으로 밝혀졌다. 일부 정신과 의사들은 챗봇 사용과 정신병 사이의 잠재적 연관성을 탐구하기 시작했다.
이 규정은 특히 매우 현실적이고 설득력 있는 텍스트를 생성할 수 있는 대규모 언어 모델(LLM)과 같은 AI 모델의 정교함 증가를 다룬다. 이러한 기능은 AI가 사용자의 취약점을 악용하여 유해한 행동으로 이어질 가능성에 대한 우려를 제기한다. 중국 정부의 조치는 빠르게 발전하는 AI 기술과 관련된 위험을 관리하기 위한 사전 예방적 접근 방식을 반영한다.
규정이 확정되면 AI 개발자는 시스템이 유해한 행동을 하지 않도록 보호 장치를 구현해야 한다. 이러한 보호 장치의 구체적인 세부 사항은 아직 개발 중이지만 자해, 폭력 및 기타 유해한 콘텐츠의 조장을 감지하고 방지하기 위한 조치가 포함될 것으로 예상된다. 또한 이 규정은 사용자 데이터가 오용으로부터 보호되도록 데이터 개인 정보 보호 및 보안 문제를 다룰 가능성이 높다.
규정 초안은 현재 공개 의견 수렴을 받고 있다. 중국 사이버 공간 관리국은 의견을 검토하고 필요에 따라 규정을 수정하여 최종 확정할 예정이다. 이러한 규칙의 시행은 중국의 AI 기술 개발 및 배포에 상당한 영향을 미칠 수 있으며 다른 국가의 규제 접근 방식에 영향을 미칠 수 있다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요