영국 통신 규제 기관인 Ofcom은 X(구 트위터)에 Grok AI 모델이 아동 성적 이미지 생성한다는 보고와 관련하여 정보 제공을 요청했습니다. 이번 요청은 생성형 AI의 잠재적 오용과 아동 안전에 미치는 영향에 대한 우려가 커짐에 따라 이루어졌습니다.
Ofcom은 X가 그러한 이미지의 생성 및 유포를 방지하기 위해 마련한 안전 장치에 대한 세부 정보를 요구하고 있습니다. 여기에는 Grok 개발에 사용된 학습 데이터, 부적절한 콘텐츠를 식별하고 제거하기 위해 사용되는 필터 및 탐지 메커니즘, 사용자 불만 사항 보고 및 처리 절차에 대한 정보가 포함됩니다.
Grok과 같은 생성형 AI 모델은 방대한 텍스트 및 이미지 데이터 세트를 기반으로 학습하여 실제 시나리오를 모방할 수 있는 새로운 콘텐츠를 생성할 수 있습니다. 그러나 이러한 기능은 악의적인 행위자가 아동 성 학대물(CSAM) 제작을 포함한 유해한 목적으로 이러한 모델을 악용할 가능성에 대한 우려도 제기합니다. 이러한 모델을 학습하는 과정에는 데이터 내의 패턴과 관계를 학습하는 복잡한 알고리즘이 포함됩니다. 학습 데이터에 편향되거나 부적절한 콘텐츠가 포함된 경우 모델이 의도치 않게 이러한 편향을 재현하거나 증폭시킬 수 있습니다.
Ofcom 대변인은 "AI가 유해 콘텐츠, 특히 아동을 착취하는 콘텐츠를 만드는 데 오용될 가능성에 대해 깊이 우려하고 있습니다."라며 "X와 협력하여 이러한 위험을 완화하고 사용자 안전을 보장하기 위해 취하고 있는 조치를 파악하고 있습니다."라고 밝혔습니다.
X는 Ofcom의 요청을 인지하고 조사에 전적으로 협조하고 있다고 밝혔습니다. 회사는 CSAM의 제작 및 배포를 금지하는 엄격한 정책을 시행하고 있으며 AI를 책임감 있게 사용하는 데 전념하고 있다고 주장합니다. 또한 탐지 및 예방 메커니즘을 지속적으로 개선하기 위해 노력하고 있다고 밝혔습니다.
이번 사건은 AI 규제와 윤리적 개발 및 배포를 보장하는 데 있어 더 광범위한 과제를 강조합니다. 전문가들은 규제 기관, 기술 회사 및 시민 사회 단체 간의 협력을 포함하는 다각적인 접근 방식이 필요하다고 주장합니다. 여기에는 강력한 기술적 안전 장치 개발, 명확한 법적 프레임워크 구축, AI의 위험과 이점에 대한 대중의 인식 제고가 포함됩니다.
AI 규제의 최신 개발에는 AI 개발 및 사용에 대한 포괄적인 법적 프레임워크를 구축하는 것을 목표로 하는 유럽 연합의 AI 법과 같은 국제적 수준에서의 지속적인 논의가 포함됩니다. 이러한 규정은 AI가 전 세계적으로 개발 및 배포되는 방식에 상당한 영향을 미칠 가능성이 높습니다. Ofcom의 X의 Grok AI 모델에 대한 조사는 AI의 잠재적 피해를 해결하고 사회에 이익이 되는 방식으로 사용되도록 보장하기 위한 광범위한 노력의 일환입니다. 이번 조사 결과는 다른 AI 개발자 및 플랫폼에 영향을 미쳐 생성형 AI와 관련된 위험을 해결하는 방법에 대한 선례를 남길 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요