중국 사이버정보국은 토요일 인공지능(AI) 기반 자살, 자해 및 폭력을 예방하기 위해 인간 대화를 시뮬레이션하는 인공지능(AI) 제품 및 서비스를 규제하는 규칙을 제안했습니다. 초안 규정은 확정될 경우 텍스트, 이미지, 오디오, 비디오 또는 기타 수단을 사용하여 인간 상호 작용을 모방하는 중국에서 공개적으로 사용 가능한 모든 AI 제품 또는 서비스에 적용됩니다.
이번 제안된 규칙은 NYU 로스쿨의 윈스턴 마 겸임 교수가 CNBC에 "인간 또는 의인화된 특성을 가진 AI를 규제하려는 세계 최초의 시도"라고 설명한 것입니다. 이는 컴패니언 봇의 사용이 전 세계적으로 증가하면서 잠재적인 피해에 대한 우려가 제기되는 시점에 나온 것입니다.
이러한 규정의 필요성은 AI 컴패니언의 잠재적인 부정적 영향에 대한 인식이 높아짐에 따라 발생합니다. 2025년 초에 연구자들은 자해, 폭력, 심지어 테러 조장 등 주요 위험을 확인했습니다. 추가적인 우려 사항으로는 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 하고, 약물 남용을 조장하고, 언어 폭력을 행사하는 것 등이 있습니다. 일부 정신과 의사들은 챗봇 사용과 정신병 사이의 잠재적인 연관성을 탐구하기 시작했습니다.
이 규정은 특히 대화형 AI를 구동하는 대규모 언어 모델(LLM)과 같은 AI 모델의 정교함 증가를 다룹니다. 이러한 모델은 방대한 데이터 세트를 기반으로 훈련되어 인간과 유사한 텍스트를 생성하고 복잡한 대화에 참여할 수 있습니다. 이 기술은 고객 서비스 및 교육과 같은 분야에서 이점을 제공하지만 제대로 관리하지 않으면 위험도 따릅니다. 중국 정부의 이번 조치는 이러한 위험을 완화하기 위한 사전 예방적 접근 방식을 반영합니다.
초안 규칙은 현재 검토 중이며 공개 의견 수렴을 위해 열려 있습니다. 사이버정보국은 규정을 확정하고 시행하기 전에 피드백을 고려할 것입니다. 이번 개발은 AI 개발자, 윤리학자 및 정책 입안자들에 의해 면밀히 관찰되고 있으며, 다른 국가들이 인간과 유사한 특성을 가진 AI 규제에 접근하는 방식에 선례를 남길 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요