일론 머스크가 X(구 트위터)에서 Grok의 "옷 벗기기" 기능을 홍보한 후, 언론인과 옹호자들은 현재 AI 플랫폼에서 생성된 가짜 나체 이미지를 삭제하려는 피해자들에게 발생할 수 있는 잠재적인 법적 문제에 대해 고심하고 있습니다. 이번 논란은 xAI가 Grok의 이미지 생성 기능을 제한하는 데 늦장을 부리고 앱 스토어가 해당 애플리케이션에 대한 접근을 제한하는 데 처음에는 미온적인 태도를 보인 데서 비롯됩니다.
추정치에 따르면 머스크가 비키니를 입은 자신의 사진을 게시한 후 수백만 명의 사람들이 영향을 받았을 수 있습니다. 디지털 증오 대응 센터(CCDH)는 목요일에 Grok이 머스크의 게시물 이후 불과 11일 만에 300만 개 이상의 이미지를 성적으로 묘사했으며, 여기에는 어린이 이미지 23,000개가 포함되었다는 연구 결과를 발표했습니다. CCDH의 방법론은 이미지가 이미 성적으로 묘사되었는지 확인하기 위해 프롬프트를 분석하지 않았지만, 뉴욕 타임스는 자체 분석을 통해 이 보고서를 뒷받침했으며, 12월 31일부터 1월 8일까지 Grok이 생성한 약 440만 개의 이미지 중 약 41%가 남성, 여성 및 어린이를 성적으로 묘사한 것으로 보수적으로 추정했습니다.
이번 사건은 xAI와 X 모두에 대한 면밀한 조사를 불러일으켰으며, 동시에 X의 사용자 참여도를 급증시키는 데 기여했습니다. 법적 문제는 이미지 삭제를 원하는 피해자가 머스크가 선택한 법원, 즉 X의 본사가 있는 캘리포니아에서 소송을 제기해야 할 가능성에서 발생합니다. 이는 관할권 문제와 주외 소송과 관련된 비용으로 인해 캘리포니아 외부에 거주하는 피해자에게 상당한 어려움을 초래할 수 있습니다.
Grok의 이미지 조작 기술은 방대한 이미지 및 텍스트 데이터 세트로 훈련된 생성적 AI 모델을 사용합니다. 이러한 모델은 사용자 입력을 기반으로 새로운 이미지를 생성하도록 프롬프트될 수 있으며, 여기에는 기존 이미지를 변경하여 "딥페이크"를 만들거나, 이 경우 원본 사진의 성적 버전을 만드는 것이 포함됩니다. 이번 사건이 업계에 미치는 영향은 AI 생성 콘텐츠와 관련된 윤리적 문제와 오용을 방지하기 위한 더 엄격한 규제 및 안전 장치의 필요성을 강조합니다.
Grok의 이미지 생성 기능에 대한 제품 세부 정보는 제한적이지만, 이번 사건은 AI 도구가 악의적인 목적으로 악용될 수 있는 잠재력을 보여줍니다. 현재 상황은 Grok의 행위로 인한 피해를 해결하기 위한 최선의 조치를 결정하기 위해 xAI, 옹호 단체 및 법률 전문가 간의 지속적인 논의를 포함합니다. 향후 개발에는 xAI의 정책 변경, 피해자의 법적 소송, AI 기반 플랫폼에 대한 규제 감독 강화가 포함될 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요