구 트위터인 X는 널리 퍼진 비판에 따라 플랫폼에서 사용자들이 실제 인물의 노출이 심한 옷차림 이미지를 편집하고 생성하는 것을 막기 위해 새로운 제한 조치를 시행했습니다. 이는 Grok AI가 동의 없이 성적으로 노골적인 이미지를 만드는 데 사용되고 있다는 비판에 따른 것입니다. 수요일 밤에 도입된 이번 정책 변경은 여성의 유해한 "옷 벗기기" 사진과 미성년자로 보이는 사람들의 성적 이미지 생성에 대한 우려를 해결하는 것을 목표로 합니다.
그러나 X가 플랫폼 내에서 Grok의 이미지 생성에 대한 안전 조치를 도입한 것으로 보이지만, 독립적인 테스트 결과 독립 실행형 Grok 앱과 웹사이트에서는 여전히 그러한 이미지 생성이 허용되는 것으로 나타났습니다. WIRED의 연구원, 기자 및 기타 테스터들은 독립적인 Grok 플랫폼을 통해 "옷 벗기기 스타일" 이미지와 포르노 콘텐츠를 생성할 수 있다고 보고했습니다. 반대로 일부 사용자는 이전 기능에 비해 이미지 및 비디오 생성 능력이 감소했다고 보고했습니다.
파리에 본사를 둔 비영리 단체인 AI Forensics의 수석 연구원인 폴 부쇼는 "Grok.com에서 여전히 실사적인 누드 이미지를 생성할 수 있습니다... X의 Grok에서는 할 수 없는 방식으로 누드 이미지를 생성할 수 있습니다."라고 말했습니다. Grok를 사용하여 성적 이미지를 만드는 것을 추적해 온 부쇼는 X 플랫폼 외부에서 여러 테스트를 수행했습니다. 그는 "Grok Imagine에 이미지를 업로드하고 그 사람을 비키니 차림으로 만들어 달라고 요청하면 작동합니다."라고 덧붙였습니다.
X의 제한 사항과 독립 실행형 Grok의 기능 간의 불일치는 AI 이미지 생성 기술 규제의 어려움을 강조합니다. 이미지를 조작하고 개인을 위태로운 상황에서 현실적으로 묘사하는 능력은 동의 및 오용 가능성과 관련하여 심각한 윤리적, 법적 문제를 야기합니다.
Grok 및 유사한 AI 이미지 생성 도구의 도입은 기술 업계와 정책 입안자들 사이에서 더 엄격한 규제 및 안전 장치의 필요성에 대한 논쟁을 불러일으켰습니다. 전문가들은 개발자가 유해하거나 착취적인 콘텐츠 생성을 방지하기 위한 강력한 콘텐츠 조정 시스템 및 메커니즘을 포함하여 이러한 기술을 배포할 때 안전 및 윤리적 고려 사항을 우선시해야 한다고 주장합니다.
Grok의 이미지 생성 기능의 현재 상태는 독립 실행형 플랫폼에서 오용 가능성이 지속됨에 따라 많은 사람들에게 여전히 우려 사항입니다. X가 현재 진행 중인 문제를 해결하고 모든 Grok 플랫폼에서 일관된 안전 조치를 보장하기 위해 어떤 조치를 취할 계획인지는 불분명합니다. 연구원과 옹호 단체가 상황을 계속 모니터링하고 더 강력한 규제를 추진함에 따라 추가적인 발전이 예상됩니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요