영국 통신 규제 기관인 Ofcom은 X(구 트위터)의 Grok AI 챗봇이 아동 성적 이미지 생성한다는 보고와 관련하여 X에 정보 제공을 요청했습니다. 이번 조사는 다양한 온라인 안전 단체와 언론 매체에서 해당 AI 기술의 잠재적 오용에 대한 우려를 제기한 데 따른 것입니다.
Ofcom은 X가 이러한 이미지의 생성 및 유포를 방지하기 위해 마련한 안전 장치를 파악하고 이러한 조치의 효과성을 평가하고자 합니다. Ofcom은 사용자들을 유해 콘텐츠로부터 보호하지 못하는 기업에 벌금을 부과할 권한이 있으며, 이번 조사는 추가적인 규제 조치로 이어질 수 있습니다.
X의 AI 회사인 xAI가 개발한 Grok은 ChatGPT 및 Google의 Gemini와 같은 다른 AI 챗봇과 유사한 대규모 언어 모델(LLM)입니다. 이러한 모델은 방대한 텍스트 및 이미지 데이터 세트를 기반으로 학습하여 새로운 콘텐츠를 생성하고, 언어를 번역하고, 질문에 답변할 수 있습니다. 그러나 동일한 기술이 아동 성 학대물(CSAM)을 포함한 유해하거나 불법적인 콘텐츠를 만드는 데 악용될 수도 있습니다.
AI 모델에 의한 아동 성적 이미지 생성은 심각한 윤리적, 법적 문제를 야기합니다. 전문가들은 이러한 이미지가 합성적으로 생성된 것이라 할지라도 아동에 대한 정상화 및 착취에 기여할 수 있다고 경고합니다. 더욱이 이러한 이미지를 쉽게 생성하고 온라인에 유포할 수 있다는 점은 법 집행 기관과 아동 보호 기관에 어려움을 제기합니다.
베를린 헤르티 스쿨의 윤리 및 기술 교수인 조안나 브라이슨 박사는 "AI가 이러한 방식으로 오용될 가능성은 매우 우려스럽습니다."라며 "AI 기술의 개발 및 배포를 규제하기 위한 강력한 규정과 윤리적 지침이 시급히 필요함을 강조합니다."라고 말했습니다.
X는 Grok의 오용을 방지하기 위해 노력하고 있으며 유해 콘텐츠를 탐지하고 제거하기 위한 조치를 시행하고 있다고 밝혔습니다. 이러한 조치에는 콘텐츠 필터, 인적 검토, 법 집행 기관과의 협력이 포함됩니다. 그러나 비평가들은 이러한 조치가 충분하지 않으며 AI 모델에 의한 CSAM 생성을 방지하기 위해 더 많은 노력이 필요하다고 주장합니다.
Ofcom의 조사는 AI를 규제하고 책임감 있는 개발 및 사용을 보장하기 위한 광범위한 노력의 일환입니다. 전 세계 정부와 규제 기관은 편향, 차별, 허위 정보 확산 등 AI가 제기하는 문제로 씨름하고 있습니다. 유럽연합은 현재 유럽 내 AI에 대한 포괄적인 법적 프레임워크를 구축할 AI 법안을 최종 마무리하고 있습니다.
Ofcom 조사의 결과는 X와 더 넓은 AI 산업에 상당한 영향을 미칠 수 있습니다. AI 모델의 개발 및 배포에 대한 더 엄격한 규제로 이어질 수 있으며, 전 세계 다른 규제 기관에 선례를 남길 수도 있습니다. Ofcom은 조사 완료 시한을 명시하지 않았습니다. X는 Ofcom의 요청을 인지하고 조사에 전적으로 협조하고 있다고 밝혔습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요