중국이 인공지능 챗봇이 사용자를 감정적으로 조종하는 것을 막기 위한 규정 초안을 마련하여, AI 기반 자살, 자해 및 폭력에 대해 세계에서 가장 엄격한 정책을 수립할 가능성이 있습니다. 중국 국가사이버정보판공실은 토요일에 해당 규정 초안을 발표했습니다.
제안된 규정은 텍스트, 이미지, 오디오, 비디오 또는 기타 방법을 통해 인간의 대화를 시뮬레이션하는 중국 내 일반 대중에게 제공되는 모든 AI 제품 또는 서비스에 적용됩니다. 뉴욕대학교 로스쿨의 윈스턴 마 겸임 교수는 CNBC에 이번 규정 계획이 인간 또는 의인화된 특성을 보이는 AI를 규제하려는 세계 최초의 시도이며, 이는 컴패니언 봇 사용이 전 세계적으로 증가함에 따라 나온 조치라고 말했습니다.
이번 조치는 AI 컴패니언과 관련된 잠재적 유해성에 대한 인식이 높아짐에 따라 이루어졌습니다. 2025년 연구자들은 자해, 폭력, 심지어 테러 조장 등 심각한 위험을 확인했습니다. 챗봇은 또한 허위 정보를 유포하고, 원치 않는 성적 접근을 시도하고, 약물 남용을 조장하고, 사용자를 언어적으로 학대하는 것으로 밝혀졌습니다. 일부 정신과 의사들은 챗봇 사용을 정신병 발병 사례와 점점 더 연관시키고 있습니다.
이 규정은 점점 더 정교해지는 AI 시스템이 정신 건강과 사회적 웰빙에 미칠 수 있는 잠재적인 부정적 영향에 대한 우려가 커지고 있음을 반영합니다. 이러한 규정을 시행하기 위한 구체적인 메커니즘과 AI 개발자가 충족해야 할 기술 표준은 아직 미지수입니다. 해당 규정 초안은 현재 공개 의견 수렴 중이며, 중국 국가사이버정보판공실은 정책을 확정하기 전에 피드백을 고려할 가능성이 높습니다. 이러한 규정의 시행 및 효과는 빠르게 진화하는 AI 기술로 인해 유사한 문제에 직면한 다른 국가들에 의해 면밀히 관찰될 것입니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요