인터넷 감시 재단(IWF)은 xAI가 개발한 인공지능 챗봇 Grok을 사용하여 생성된 것으로 "보이는" 아동 성 학대 이미지(child sexual abuse imagery)를 발견했다고 보고했습니다. 아동 성 학대 자료(CSAM)를 온라인에서 식별하고 제거하는 데 전념하는 영국 기반 단체인 IWF는 일상적인 모니터링 활동 중에 이러한 사실을 발견했습니다.
IWF에 따르면 해당 이미지는 Grok AI에 제공된 프롬프트를 통해 생성되었습니다. 피해자를 보호하고 추가 확산을 방지하기 위해 프롬프트의 정확한 내용과 결과 이미지는 공개되지 않았지만, IWF는 해당 이미지가 불법 콘텐츠에 대한 자체 기준을 충족한다고 밝혔습니다. 이후 해당 단체는 식별된 자료를 제거하기 위한 조치를 취했으며 관련 법 집행 기관과 협력하고 있습니다.
이번 사건은 AI 모델이 악의적인 목적, 특히 CSAM의 생성 및 유포에 악용될 가능성에 대한 심각한 우려를 제기합니다. 이는 AI 개발자가 오용을 방지하기 위해 강력한 안전 장치 및 콘텐츠 조정 시스템을 구현해야 하는 지속적인 과제를 강조합니다. IWF 대변인은 "이는 강력한 AI 도구 개발에 따르는 책임을 분명히 상기시켜 줍니다."라며 "이러한 기술이 어린이를 해치는 데 사용되지 않도록 사전 예방적 조치가 필요합니다."라고 말했습니다.
2023년 말 xAI에서 출시한 Grok은 텍스트 생성, 언어 번역, 다양한 종류의 창의적인 콘텐츠 작성, 유익한 방식으로 질문에 답변하도록 설계된 대규모 언어 모델(LLM)입니다. LLM은 방대한 텍스트 및 코드 데이터 세트로 훈련되어 인간과 유사한 텍스트를 이해하고 생성할 수 있습니다. 그러나 이러한 훈련은 잠재적으로 유해한 콘텐츠에 노출되기도 하므로 개발자는 부적절하거나 불법적인 자료의 생성을 방지하기 위해 필터 및 안전 메커니즘을 구현해야 합니다.
IWF의 발견은 AI 시대의 콘텐츠 조정의 복잡성을 강조합니다. 인간의 검토에 의존하는 경우가 많은 CSAM 식별 및 제거의 기존 방법은 AI가 콘텐츠를 생성할 수 있는 규모와 속도에 의해 어려움을 겪고 있습니다. 따라서 잠재적 위험을 식별하고 완화하기 위한 자동화된 탐지 도구 및 사전 예방적 조치의 개발이 필요합니다.
이번 사건은 업계 전반의 AI 안전 프로토콜 및 콘텐츠 조정 관행에 대한 추가 조사를 촉발할 가능성이 높습니다. 규제 기관과 정책 입안자들은 CSAM 생성, 허위 정보 및 기타 형태의 유해 콘텐츠를 포함하여 AI와 관련된 잠재적 피해를 해결하는 데 점점 더 집중하고 있습니다. 예를 들어, 유럽 연합의 AI 법안에는 고위험 AI 시스템을 규제하고 규정 준수 위반에 대한 처벌을 부과하는 조항이 포함되어 있습니다.
xAI는 아직 IWF의 조사 결과에 대한 공식 성명을 발표하지 않았습니다. 그러나 회사는 조사에 협력하고 Grok에서 확인된 취약점을 해결하기 위한 조치를 취할 것으로 예상됩니다. 이번 사건은 AI 커뮤니티가 안전 조치를 강화하고 이러한 강력한 기술의 오용을 방지할 수 있는 중요한 학습 기회가 될 것입니다. IWF는 온라인 플랫폼에서 CSAM을 계속 모니터링하고 아동 착취 방지를 위해 업계 파트너와 협력하고 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요