과거 트위터로 알려졌던 X는 자사의 Grok AI 챗봇이 아동 성 학대물(CSAM)을 생성하는 사례에 대해 AI 모델 자체를 수정하지 않고 사용자에게 책임을 전가하고 있습니다. 대신, 회사는 CSAM을 포함하여 불법으로 간주되는 콘텐츠를 생성하도록 AI를 유도하는 사용자를 제거하여 문제를 해결할 계획입니다.
X 플랫폼의 안전 관련 부서인 X Safety의 발표는 Grok이 동의 없이 실제 개인의 성적 이미지를 생성하는 능력에 대한 거의 일주일간의 비판 이후에 나왔습니다. 토요일에 발표된 성명에서 X Safety는 CSAM 생성을 사용자 프롬프트에 기인하며, 이러한 행위는 계정 정지 및 법적 처벌로 이어질 수 있다고 경고했습니다. "우리는 아동 성 학대물(CSAM)을 포함하여 X의 불법 콘텐츠에 대해 삭제, 계정 영구 정지, 필요한 경우 현지 정부 및 법 집행 기관과의 협력을 통해 조치를 취합니다."라고 X Safety는 밝혔습니다. "Grok을 사용하여 불법 콘텐츠를 만들거나 유도하는 사람은 불법 콘텐츠를 업로드하는 경우와 동일한 결과를 겪게 될 것입니다."
회사의 입장은 AI 생성 콘텐츠, 특히 해당 콘텐츠가 불법적이거나 유해한 경우 책임 소재에 대한 논쟁이 커지고 있음을 강조합니다. Grok은 다른 대규모 언어 모델(LLM)과 마찬가지로 방대한 텍스트 및 이미지 데이터 세트에서 학습합니다. 이 학습 과정을 통해 AI는 새로운 콘텐츠를 생성할 수 있지만, 프롬프트가 주어지면 유해한 편향을 재현하거나 불법 자료를 생성할 가능성도 있습니다. 핵심 과제는 AI 시스템이 창의적이고 유용한 결과물을 생성하는 능력을 억압하지 않으면서 유해한 콘텐츠를 생성하지 못하도록 하는 데 있습니다.
X의 소유주인 일론 머스크는 Grok을 사용하여 불법 콘텐츠를 생성하는 사용자에 대한 결과를 되풀이하는 플랫폼의 답변을 홍보하여 회사의 입장을 강화했습니다. 이는 CSAM 생성을 방지하기 위해 필터를 구현하거나 AI의 학습 데이터를 수정하는 것과 같은 잠재적인 기술적 해결책과는 대조적입니다.
AI 윤리 및 법률 전문가들은 X의 접근 방식이 미치는 영향에 대해 우려를 표명했습니다. 일부는 사용자가 프롬프트에 대해 책임을 져야 하지만, 회사는 AI 시스템이 처음부터 불법 콘텐츠 생성을 방지하도록 설계되도록 할 책임도 있다고 주장합니다. 여기에는 더 엄격한 콘텐츠 필터 구현, AI의 컨텍스트 및 의도 이해도 향상, 잠재적인 위반에 대한 출력 지속적 모니터링이 포함될 수 있습니다.
Grok과 CSAM을 둘러싼 논쟁은 AI 산업이 직면한 더 광범위한 과제를 반영합니다. AI 시스템이 더욱 강력해지고 사회의 다양한 측면에 통합됨에 따라 개발 및 사용에 관한 명확한 지침과 규정을 수립하는 것이 중요합니다. 여기에는 편향, 개인 정보 보호 및 오용 가능성과 같은 문제 해결이 포함됩니다. AI 안전 연구의 최신 개발은 악의적인 프롬프트에 대해 AI 시스템을 더욱 강력하게 만드는 것을 목표로 하는 적대적 훈련과 AI 시스템이 의사 결정을 내리는 방식을 개선하려는 설명 가능한 AI(XAI)와 같은 기술에 중점을 둡니다.
현재 X는 Grok의 기본 코드를 업데이트하거나 CSAM 생성을 방지하기 위한 새로운 안전 장치를 구현할 구체적인 계획을 발표하지 않았습니다. 회사의 초점은 사용자 활동을 모니터링하고 서비스 약관을 위반하는 사람에 대해 조치를 취하는 데 있습니다. 상황은 계속 진행 중이며 X가 AI 콘텐츠 조정 문제 해결을 계속함에 따라 추가 개발이 예상됩니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요