디지털 세상은 텍스트로 넘쳐나고 있으며, 누가 또는 무엇이 글을 쓰고 있는지 점점 더 분간하기 어려워지고 있습니다. 그러나 인공지능이 생성한 글이 온라인 백과사전에 올라오는 것을 막는 데 주력했던 한 무리의 위키백과 편집자들이 인공지능이 좀 더 인간적으로 들리도록 만드는 경쟁에 의도치 않게 불을 붙였을지도 모릅니다.
2023년 말부터 프랑스 위키백과 편집자인 일리아스 르블뢰가 이끄는 위키프로젝트 AI 정리의 자원봉사자들은 플랫폼에 침투하는 AI 작성 콘텐츠를 찾아 나섰습니다. 그들은 검토를 위해 500개 이상의 문서를 태그했으며, AI 글쓰기의 징후에 대해 자세히 알게 되었습니다. 2025년 8월, 그들은 챗봇의 손길을 드러내는 언어 및 형식 패턴에 대한 자세한 목록인 공개 가이드로 그들의 관찰 내용을 공식화했습니다.
AI 생성 콘텐츠를 식별하고 제거하는 데 도움이 되도록 고안된 이 가이드는 이제 예상치 못한 두 번째 삶을 찾았습니다. 기술 기업가인 시키 첸은 최근 앤트로픽의 클로드 코드 AI 어시스턴트를 위한 오픈 소스 플러그인 "휴머나이저"를 출시했습니다. 이 간단한 도구는 위키백과 편집자들이 정리한 24가지 챗봇 특징 목록을 클로드에 제공하여 기본적으로 AI가 이러한 패턴을 피하고 인간의 글쓰기를 더 효과적으로 모방하도록 지시합니다.
첸은 X에 "위키백과가 AI 글쓰기의 징후에 대한 자세한 목록을 정리한 것은 정말 편리합니다."라고 썼습니다. "LLM에 그렇게 하지 말라고 지시할 수 있을 정도입니다."
이러한 발전의 의미는 상당합니다. 한편으로는 AI의 정교함과 적응 및 학습 능력이 향상되고 있음을 강조합니다. 다른 한편으로는 AI가 속이고 조작할 가능성에 대한 우려를 제기하여 인간이 생성한 콘텐츠와 기계가 생성한 콘텐츠 간의 경계를 모호하게 만듭니다.
위키프로젝트 AI 정리 가이드는 지나치게 형식적인 언어, 반복적인 문장 구조, 축약형을 피하는 경향과 같은 패턴을 식별합니다. 이러한 특징은 본질적으로 잘못된 것은 아니지만 종종 AI 글쓰기를 인간의 산문과 구별되게 만듭니다. 휴머나이저와 같은 도구는 AI가 이러한 패턴을 피하도록 훈련함으로써 진정한 인간의 글쓰기와 정교한 AI 모방을 구별하기가 점점 더 어려워질 수 있습니다.
스탠포드 대학교의 전산 언어학 교수인 아냐 샤르마 박사는 "문제는 AI가 끊임없이 진화하고 있다는 것입니다."라고 말합니다. "AI 모델이 더욱 정교해짐에 따라 필연적으로 인간의 글쓰기 스타일을 더욱 설득력 있게 모방하는 방법을 배우게 될 것입니다. 이는 AI 생성 콘텐츠를 감지하려는 사람들과 감지할 수 없도록 만들려는 사람들 간의 끊임없는 고양이와 쥐 게임을 만듭니다."
이러한 발전은 윤리적인 문제도 제기합니다. AI를 사용하여 의도적으로 인간의 글쓰기를 모방하는 것이 윤리적인가? 인간이 생성한 콘텐츠와 기계가 생성한 콘텐츠를 구별하기가 점점 더 어려워지는 세상의 잠재적인 결과는 무엇일까요?
챗봇을 "인간화"하기 위해 AI를 사용하는 것은 마케팅 및 고객 서비스에서 저널리즘 및 교육에 이르기까지 다양한 분야에 광범위한 영향을 미칠 수 있습니다. 인간 저널리스트가 작성한 기사와 구별할 수 없는 매력적인 마케팅 카피를 작성하거나 뉴스 기사를 생성하거나 대화에 원활하게 참여할 수 있는 AI 기반 챗봇을 상상해 보십시오.
위키백과 편집자 가이드는 원래 AI 생성 허위 정보의 확산을 막기 위한 것이었지만, 의도치 않게 AI의 기능을 향상시키려는 사람들에게 귀중한 도구를 제공했습니다. AI가 계속 진화함에 따라 이러한 발전의 윤리적 및 사회적 의미를 고려하고 인공지능 시대에 투명성과 책임성을 보장하기 위한 전략을 개발하는 것이 중요합니다. 인간과 기계의 경계가 모호해지고 있으며, 지금 논의해야 할 문제입니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요