구 트위터인 X는 수요일 밤, Grok AI 이미지 생성기를 사용하여 실제 인물을 노출이 심한 옷차림으로 묘사하는 이미지 생성을 막기 위한 새로운 제한 조치를 시행했습니다. 이번 정책 변경은 Grok을 사용하여 여성의 동의 없는 "탈의" 사진과 미성년자의 성적 이미지 제작에 대한 광범위한 비판에 따른 것입니다.
그러나 X가 자체 플랫폼 내에서 안전 조치를 도입한 것으로 보이지만, 연구원, WIRED 및 다른 언론인들이 실시한 테스트에 따르면 독립 실행형 Grok 애플리케이션과 웹사이트는 여전히 유사한 유형의 이미지를 생성하고 있습니다. 일부 사용자는 이전 기능에 비해 이미지 및 비디오 제작 능력에 제한이 있다고 보고하기도 했습니다.
파리에 본사를 둔 비영리 단체인 AI Forensics의 수석 연구원인 폴 부쇼는 Grok.com에서 여전히 실사적인 나체 이미지를 생성할 수 있다고 밝혔습니다. 부쇼는 "X의 Grok에서는 불가능한 방식으로 나체 이미지를 생성할 수 있습니다"라고 말하며, Grok을 사용하여 성적 이미지를 만드는 것을 추적해 왔으며 X 외부 플랫폼에서 여러 테스트를 실행했다고 언급했습니다. 그는 "Grok Imagine에 이미지를 업로드하고 해당 인물을 비키니를 입은 모습으로 만들어 달라고 요청하면 작동합니다"라고 덧붙였습니다.
이러한 불일치는 동일한 AI 기술을 사용하는 여러 플랫폼과 인터페이스에서 포괄적인 안전 장치를 구현하는 데 따르는 어려움을 강조합니다. Grok의 이미지 생성 기능은 제어하고 효과적으로 모니터링하기 어려울 수 있는 복잡한 알고리즘에 의존합니다. 이 기술은 방대한 이미지 및 텍스트 데이터 세트로 훈련된 확산 모델을 사용하여 사용자 프롬프트를 기반으로 새로운 이미지를 생성할 수 있습니다. 그러나 이는 모델이 적절하게 규제되지 않으면 유해하거나 부적절한 콘텐츠를 만드는 데 악용될 수 있음을 의미하기도 합니다.
X의 제한 조치 도입은 AI 생성 성적 이미지 문제 해결을 위한 첫걸음입니다. 그러나 독립 실행형 Grok 플랫폼에서 이러한 콘텐츠를 계속 사용할 수 있다는 점은 이러한 조치의 효과에 대한 우려를 불러일으킵니다. 이번 사건은 AI 이미지 생성과 관련된 잠재적 피해를 완화하기 위해 기술 회사, 연구원 및 정책 입안자 간의 지속적인 모니터링, 안전 프로토콜 개선 및 협력의 필요성을 강조합니다. 업계 영향으로는 AI 기반 도구에 대한 감시 강화와 오용 방지를 위한 더 엄격한 규제 추진이 있을 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요