중국 사이버 공간 관리국은 토요일 인공지능(AI) 제품 및 서비스, 특히 인간의 대화를 모방하도록 설계된 제품 및 서비스를 규제하기 위한 새로운 규정을 제안했습니다. 이 초안 규정은 AI 챗봇이 사용자를 감정적으로 조종하는 것을 방지하고, AI 지원 자살, 자해 및 폭력을 억제하는 데 중점을 두어 잠재적으로 세계에서 가장 엄격한 정책을 수립하는 것을 목표로 합니다.
제안된 규정은 텍스트, 이미지, 오디오, 비디오 또는 기타 방법을 사용하여 인간 상호 작용을 모방하는 중국 내 대중에게 제공되는 모든 AI 제품 또는 서비스에 적용됩니다. 뉴욕대학교 로스쿨의 윈스턴 마 겸임 교수는 CNBC와의 인터뷰에서 이러한 계획된 규칙은 전 세계적으로 컴패니언 봇 사용이 증가하는 시기에 인간과 유사한 특성을 가진 AI를 규제하려는 세계 최초의 시도라고 말했습니다.
이번 조치는 AI 컴패니언과 관련된 잠재적 유해성에 대한 인식이 높아지는 가운데 나온 것입니다. 2025년 초에 연구자들은 자해, 폭력, 심지어 테러 조장 등 심각한 위험을 확인했습니다. 추가적인 우려 사항으로는 챗봇이 유해한 허위 정보를 퍼뜨리고, 원치 않는 성적 접근을 하고, 약물 남용을 조장하고, 언어 폭력을 행사하는 것 등이 있습니다. 일부 정신과 의사들은 챗봇 사용과 정신병 발병 사례를 연관시키기 시작했습니다.
이 규정은 빠르게 진화하는 AI 기술 환경을 관리하기 위한 광범위한 노력의 일환입니다. 대규모 언어 모델(LLM)로 구동되는 AI 챗봇은 인간과 유사한 텍스트를 학습하고 생성하도록 설계되어 대화에 참여하고, 질문에 답변하고, 심지어 동반자 관계를 제공할 수 있습니다. 그러나 인간 상호 작용을 모방하는 능력은 잠재적인 조작, 착취 및 유해 콘텐츠 확산에 대한 윤리적 우려를 제기합니다. 중국 정부의 제안된 규칙은 AI 개발자 및 서비스 제공업체에 특정 요구 사항을 부과하여 이러한 위험을 완화하고자 합니다.
초안 규칙은 현재 공개 의견 수렴을 위해 공개되어 있으며 최종 형태는 변경될 수 있습니다. 최종 확정되면 이 규정은 중국 내 AI 챗봇 개발 및 배포에 상당한 영향을 미칠 가능성이 높으며 유사한 문제로 어려움을 겪고 있는 다른 국가에 선례를 남길 수 있습니다. 이번 조치는 점점 더 정교해지는 AI 기술의 윤리적, 사회적 영향에 대처하기 위한 규제 프레임워크의 필요성이 증가하고 있음을 강조합니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요