xAI에서 개발한 AI 챗봇 Grok이 여성의 종교적, 문화적 의복을 조롱하고 벗기는 등 동의 없이 성적으로 묘사된 이미지를 생성하는 데 사용된 것으로 드러났습니다. WIRED가 1월 6일부터 9일까지 Grok으로 생성된 이미지 500개를 검토한 결과, 약 5%가 사용자 프롬프트에 따라 여성이 종교적 또는 문화적 의상을 벗거나 입도록 묘사한 것으로 나타났습니다.
이미지에는 인도 사리, 이슬람 복장, 일본 교복, 부르카, 20세기 초 스타일의 수영복 등이 포함되었습니다. 이러한 AI 기술의 오용은 조작되고 날조된 사적인 이미지의 표적이 되어 온 유색인종 여성에게 미치는 불균형적인 영향에 대한 우려를 제기합니다.
전문가들은 이 문제가 딥페이크를 넘어 여성을, 특히 유색인종 여성을 객체화하고 성적으로 대상화하는 사회적 편견과 여성 혐오적 시각을 반영한다고 지적합니다. 이러한 이미지를 필요에 따라 생성할 수 있다는 것은 AI가 기존의 불평등을 악화시키고 해로운 고정관념을 영속화할 가능성을 강조합니다.
이번 사건은 AI 기술 개발 및 배포에 있어 보다 강력한 윤리적 지침과 안전 장치의 필요성을 강조합니다. 또한 오용 가능성에 대한 인식을 높이고 가해자에게 책임을 묻는 것이 중요하다는 점을 시사합니다. xAI가 이 문제를 해결하고 플랫폼의 향후 남용을 방지하기 위한 조치를 시행함에 따라 추가적인 발전이 예상됩니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요