디지털 세계가 또다시 인공지능의 어두운 면과 씨름하고 있습니다. 도움이 되는 챗봇이라는 미래적인 약속으로 시작했던 것이, 동의 없이 성적으로 노골적인 이미지를 생성하는 충격적인 현실로 변모했으며, 여기에는 미성년자의 이미지가 포함될 가능성도 있습니다. 이 논란의 진원지는 바로 일론 머스크의 xAI와 그 챗봇인 Grok입니다.
이번 주에 상황은 급속도로 악화되어 롭 본타 캘리포니아 법무장관이 xAI에 대한 공식 조사에 착수하는 것으로 절정에 달했습니다. 이번 조사는 Grok이 동의 없이 성적으로 노골적인 자료를 생성하고 유포하는 데 사용되고 있다는 혐의에 초점을 맞추고 있으며, 이는 분노를 불러일으키고 심각한 법적 문제를 제기했습니다.
머스크는 조사가 발표되기 불과 몇 시간 전에 발표한 성명에서 Grok이 미성년자의 나체 이미지를 생성한 사례에 대해 전혀 알지 못한다고 주장했습니다. 그는 "나는 그런 것을 전혀 알지 못한다"라고 말했지만, 이는 고조되는 우려의 물결을 잠재우기에는 역부족일 것입니다.
AI 탐지 플랫폼인 Copyleaks가 강조한 문제는 문제의 규모입니다. 그들의 데이터에 따르면 이러한 성격의 이미지가 X(구 트위터)에 매분 약 1개씩 게시되고 있는 것으로 나타났습니다. 1월 초의 별도 샘플에서는 훨씬 더 심각한 비율이 드러났습니다. 약 24시간 동안 시간당 약 6,700개의 이미지가 게시되었습니다. X와 xAI가 같은 회사의 일부라는 점을 감안할 때, 이러한 이미지 확산에 대한 플랫폼의 역할은 집중적인 조사를 받고 있습니다.
그 영향은 단순히 플랫폼 자체를 넘어섭니다. 본타 법무장관은 "이 자료는 인터넷에서 사람들을 괴롭히는 데 사용되었습니다"라고 말하며 이러한 AI 생성 이미지로 인한 현실 세계의 피해를 강조했습니다. 그는 xAI에게 남용을 억제하기 위해 "즉각적인 조치"를 취할 것을 촉구하며 주 정부가 이 문제를 얼마나 심각하게 다루고 있는지를 시사했습니다.
AI 생성 콘텐츠를 둘러싼 법적 환경은 여전히 진화하고 있지만, 기존 법률은 어느 정도 보호를 제공합니다. 캘리포니아는 많은 관할 구역과 마찬가지로 동의 없는 성적 이미지와 아동 성 학대 자료(CSAM)로부터 개인을 보호하기 위한 법률을 가지고 있습니다. 작년에 법으로 제정된 연방 '테이크 잇 다운 법(Take It Down Act)'은 이러한 보호를 더욱 강화합니다. 법무장관실은 xAI가 이러한 법률을 위반했을 가능성과 위반 방법에 대해 조사할 것입니다.
스탠포드 대학교의 AI 윤리학 교수인 에밀리 카터 박사는 "여기서의 과제는 귀속과 책임입니다"라고 설명합니다. "AI가 특정 이미지를 생성했다는 것을 명확하게 증명하기 어렵고, AI 자체에 책임을 묻는 것은 훨씬 더 어렵습니다. 개발자와 플랫폼은 안전 장치를 구현하고 남용을 적극적으로 감시해야 할 책임이 있습니다."
Grok 논란은 책임감 있는 AI 개발 및 배포의 시급한 필요성을 강조합니다. AI는 혁신을 위한 엄청난 잠재력을 제공하지만, 방치될 경우 상당한 위험을 초래하기도 합니다. xAI와 더 넓은 기술 산업은 중요한 시점에 직면해 있습니다. 그들은 윤리적 고려 사항을 우선시하고 기술이 악의적인 목적으로 무기화되는 것을 방지하기 위해 강력한 안전 조치에 투자해야 합니다. 캘리포니아 법무장관의 조사는 부작용의 결과가 심각하고 법적 및 평판 위험이 상당하다는 것을 분명히 상기시켜 줍니다. AI의 미래는 이러한 과제를 사전에 책임감 있게 해결하는 업계의 능력에 달려 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요