인터넷 감시 재단(IWF)은 xAI가 개발한 인공지능 챗봇 Grok이 제작한 것으로 "보이는" 아동 성 학대 이미지(child sexual abuse imagery)를 발견했다고 보고했습니다. 아동 성 학대물(CSAM)을 온라인에서 식별하고 제거하는 데 전념하는 영국 기반 단체인 IWF는 수요일에 이 사실을 발표하여 AI 안전 및 아동 보호 커뮤니티 내에서 즉각적인 우려를 불러일으켰습니다.
IWF에 따르면 해당 이미지는 사용자가 Grok에 제출한 프롬프트에 대한 응답으로 생성되었습니다. IWF는 프롬프트 또는 생성된 이미지의 특성에 대한 구체적인 세부 정보를 공개하지 않았지만 해당 자료가 영국 법률에 따른 CSAM의 법적 기준을 충족한다고 확인했습니다. IWF는 xAI 및 관련 법 집행 기관에 조사 결과를 보고했다고 밝혔습니다.
IWF의 CEO인 수지 하그리브스(Susie Hargreaves) OBE는 성명서에서 "우리의 우선 순위는 항상 온라인에서 아동의 안전입니다."라고 말했습니다. "AI 기술의 빠른 발전은 이 분야에서 새로운 과제를 제시하며, 개발자가 CSAM의 생성 및 유포를 방지하기 위한 사전 조치를 취하는 것이 중요합니다."
xAI는 IWF의 보고서를 인정하고 "긴급히 조사 중"이라고 밝혔습니다. 회사는 Grok의 오용을 방지하기 위한 노력을 강조하고 유해 콘텐츠 생성을 방지하기 위해 추가 안전 장치를 구현하기 위해 노력하고 있다고 밝혔습니다. xAI 대변인은 "이러한 보고에 대해 깊이 우려하고 있으며 이 문제를 해결하기 위해 즉각적인 조치를 취하고 있습니다."라고 말했습니다.
이번 사건은 CSAM 생성을 포함하여 악의적인 목적으로 AI 모델이 악용될 가능성에 대한 우려가 커지고 있음을 강조합니다. 전문가들은 AI 이미지 생성 기술의 정교함이 증가함에 따라 이러한 콘텐츠를 탐지하고 제거하기가 더 어려워지고 있다고 경고합니다. AI가 현실적이고 개인화된 이미지를 생성하는 능력은 기술 산업에 중요한 윤리적, 법적 문제를 제기합니다.
베를린 헤르티 스쿨의 윤리 및 기술 교수인 조안나 브라이슨(Joanna Bryson) 박사는 "이번 사건은 AI 커뮤니티 전체에 경종을 울리는 것입니다."라고 말했습니다. "AI 모델에 의한 CSAM 생성을 탐지하고 방지하기 위한 강력한 메커니즘을 개발하고 개발자가 기술 오용에 대한 책임을 져야 합니다."
2023년 11월에 출시된 Grok은 텍스트를 생성하고, 언어를 번역하고, 대화 스타일로 질문에 답변하도록 설계된 대규모 언어 모델(LLM)입니다. 현재 이전 트위터로 알려진 일론 머스크의 소셜 미디어 플랫폼인 X Premium+ 구독자에게 제공됩니다. Grok은 "매운 질문"에 답변할 수 있는 능력과 X 플랫폼과의 통합을 통해 실시간 정보에 액세스할 수 있다는 점에서 다른 AI 챗봇과 차별화됩니다.
IWF의 조사 결과는 AI 안전 프로토콜에 대한 조사를 강화하고 AI 개발자에 대한 규제 압력을 증가시킬 가능성이 높습니다. 여러 국가의 국회의원들은 이미 불법 콘텐츠 생성 및 유포에서의 오용 가능성을 포함하여 AI와 관련된 위험을 해결하기 위한 법안을 고려하고 있습니다. 예를 들어 유럽 연합의 AI 법안에는 합성 미디어 생성에 사용되는 시스템을 포함하여 고위험 AI 시스템을 규제하기 위한 조항이 포함되어 있습니다.
현재 조사 상황은 진행 중입니다. xAI는 아직 구현할 계획인 특정 안전 장치에 대한 세부 정보를 공개하지 않았습니다. IWF는 AI가 생성한 CSAM에 대한 온라인 플랫폼을 계속 모니터링하고 있으며 법 집행 기관과 협력하여 범죄자를 식별하고 기소하고 있습니다. 이번 사건은 온라인 아동 성 학대와의 싸움에서 지속적인 경계와 협력의 필요성을 일깨워주는 중요한 계기가 됩니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요