아동 성 학대 이미지 식별 및 삭제에 주력하는 영국 기반 자선 단체인 인터넷 감시 재단(IWF)은 일론 머스크의 xAI가 개발한 인공지능 모델인 Grok이 생성한 것으로 "보이는" 이미지를 발견했다고 보고했습니다. IWF는 아동 성 학대물(CSAM)을 묘사한 해당 이미지를 xAI에 신고했다고 단체 성명에서 밝혔습니다.
이번 발견은 AI 모델이 악의적인 목적, 특히 CSAM 생성 및 배포에 악용될 가능성에 대한 심각한 우려를 제기합니다. 이 사건은 AI 개발자들이 기술 오용을 방지하는 데 직면한 과제와 강력한 생성 AI 시스템 배포와 관련된 윤리적 책임을 강조합니다.
2023년 11월에 출시된 Grok은 질문에 답변하고 텍스트를 생성하도록 설계된 대규모 언어 모델(LLM)입니다. Grok은 대화체 어조와 X 플랫폼(구 트위터)을 통해 실시간 정보에 액세스하는 기능이 특징입니다. Grok과 같은 LLM은 방대한 텍스트 및 코드 데이터 세트로 학습되어 인간과 유사한 텍스트를 생성하고, 언어를 번역하고, 다양한 종류의 창의적인 콘텐츠를 만들 수 있습니다. 그러나 이러한 학습은 잠재적으로 유해한 콘텐츠에 노출시키기도 하며, 이는 의도치 않게 결과물에 반영될 수 있습니다.
xAI 대변인은 "IWF 보고서를 인지하고 있으며 매우 심각하게 받아들이고 있습니다."라고 말했습니다. "현재 해당 문제를 적극적으로 조사하고 있으며 Grok이 유해한 콘텐츠를 생성하는 것을 방지하기 위한 조치를 시행하기 위해 노력하고 있습니다." 회사는 고려 중인 조치에 대한 구체적인 세부 사항은 제공하지 않았지만 책임감 있는 AI 개발에 대한 헌신을 강조했습니다.
IWF의 역할은 인터넷에서 CSAM을 검색하고 인터넷 서비스 제공업체 및 소셜 미디어 플랫폼과 협력하여 이를 제거하는 것입니다. 이 단체는 자동화된 도구와 인간 검토자를 조합하여 불법 콘텐츠를 식별하고 분류합니다. 이들의 조사 결과는 법 집행 기관 및 기술 회사에 보고됩니다.
이번 사건은 AI 규제와 오용을 방지하기 위한 강력한 안전 장치의 필요성에 대한 더 광범위한 논쟁을 강조합니다. 전문가들은 AI 개발자가 콘텐츠 필터 구현, 모델 결과물 모니터링, IWF와 같은 조직과의 협력을 통해 잠재적 위험을 식별하고 해결하는 등 개발 수명 주기 전반에 걸쳐 안전 및 윤리적 고려 사항을 우선시해야 한다고 주장합니다.
AI가 생성했을 가능성이 있는 CSAM의 발견은 기술 산업 전체에도 영향을 미칩니다. 이는 다른 AI 개발자들에게 모델과 관련된 위험을 사전에 해결하고 콘텐츠 조정 기술을 개선하기 위한 연구 개발에 투자하도록 압력을 가합니다. 이번 사건은 규제 기관 및 정책 입안자들의 감시를 강화하여 AI 기술 개발 및 배포에 대한 더 엄격한 규제로 이어질 수도 있습니다.
Grok이 생성한 이미지에 대한 조사가 진행 중입니다. IWF는 xAI와 협력하여 추가 정보를 제공하고 향후 사건의 위험을 완화하기 위한 회사의 노력을 지원하고 있습니다. 이번 조사 결과는 AI 안전 및 규제의 미래에 중요한 영향을 미칠 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요