영국에 기반을 둔 아동 성 학대 이미지 식별 및 제거 전문 자선 단체인 인터넷 감시 재단(IWF)은 일론 머스크의 xAI가 개발한 인공지능 모델인 Grok이 생성한 것으로 "보이는" 이미지를 발견했다고 보고했습니다. IWF는 해당 이미지를 아동 성 학대물(CSAM)을 포함할 가능성이 있는 것으로 판단하여 관련 당국에 신고했습니다.
이번 발견은 AI 모델이 악의적인 목적, 특히 CSAM 생성에 악용될 가능성에 대한 심각한 우려를 제기합니다. AI 안전 분야의 전문가들은 점점 더 정교해지는 생성형 AI 모델과 관련된 위험, 특히 유해 콘텐츠 생성에 악용될 가능성에 대해 오랫동안 경고해 왔습니다.
xAI는 IWF의 조사 결과에 대해 아직 공식 성명을 발표하지 않았습니다. 그러나 회사는 이전에 AI를 책임감 있게 개발하고 잠재적 위험을 완화하겠다는 의지를 표명했습니다. 현재 X(구 트위터)의 Premium+ 서비스 구독자에게 제공되는 Grok은 텍스트 생성, 언어 번역, 다양한 종류의 창의적인 콘텐츠 작성, 유익한 방식으로 질문에 답변하도록 설계된 대규모 언어 모델입니다. Grok은 다른 AI가 피할 수 있는 "매운 질문"에 답변하겠다는 의지를 표명함으로써 다른 AI 모델과 차별화됩니다.
IWF의 프로세스는 자동화된 도구와 인간 분석가를 함께 사용하여 온라인에서 잠재적으로 불법적인 콘텐츠를 식별하고 분류합니다. IWF는 식별된 콘텐츠를 인터넷 서비스 제공업체(ISP) 및 기타 관련 기관에 보고하며, 이들은 해당 콘텐츠를 플랫폼에서 제거할 책임이 있습니다. IWF는 또한 법 집행 기관과 협력하여 CSAM 제작 및 배포에 관련된 개인을 조사하고 기소합니다.
이번 사건은 AI 기술의 오용을 방지하는 데 따르는 어려움을 강조합니다. Grok과 같은 생성형 AI 모델은 방대한 양의 데이터로 학습되며 유해한 콘텐츠를 생성하도록 학습하는 것을 방지하기 어려울 수 있습니다. 또한 AI 개발의 빠른 속도로 인해 규제 기관과 정책 입안자가 진화하는 위험에 대처하기가 어렵습니다.
AI의 안전하고 책임감 있는 개발을 촉진하는 데 전념하는 비영리 단체인 AI 안전 연구소의 연구원인 에밀리 카터는 "이번 사건은 AI 산업 전체에 경종을 울리는 사건입니다."라고 말했습니다. "AI 모델이 CSAM 및 기타 형태의 유해 콘텐츠를 만드는 데 사용되지 않도록 강력한 안전 장치를 개발하는 데 더 많은 자원을 투자해야 합니다."
현재 조사 상황은 불분명합니다. 법 집행 기관은 이미지의 출처와 Grok이 이미지를 생성하는 데 사용된 정도를 조사할 가능성이 높습니다. 이번 사건은 AI 안전 프로토콜에 대한 추가 조사를 촉발하고 생성형 AI 모델의 개발 및 배포를 규제하는 새로운 규정으로 이어질 수 있습니다. IWF는 상황을 계속 모니터링하고 관련 기관과 협력하여 식별된 CSAM을 인터넷에서 제거할 것입니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요