영국 통신 규제 기관인 Ofcom은 X(구 트위터)의 Grok AI 모델이 아동 성착취 이미지를 생성한다는 보고와 관련하여 X에 공식적으로 정보 제공을 요청했습니다. 이번 요청은 생성형 AI 기술의 잠재적 오용과 유해 콘텐츠 생성 능력에 대한 우려가 커지고 있는 데 따른 것입니다.
Ofcom은 Grok이 그러한 이미지를 생성하지 못하도록 X가 구현한 구체적인 안전 장치와 남용 사례를 탐지하고 제거하기 위해 마련된 조치에 대한 자세한 정보를 요구하고 있습니다. Ofcom의 조사는 AI 개발자에 대한 감시 강화와 점점 더 정교해지는 AI 모델과 관련된 위험을 완화해야 할 책임감을 강조합니다.
Grok과 같은 생성형 AI는 딥러닝 신경망을 기반으로 하는 복잡한 알고리즘을 활용하여 기존 데이터로부터 새로운 콘텐츠를 생성합니다. 이러한 모델은 방대한 이미지, 텍스트 및 기타 미디어 데이터 세트로 학습되어 현실적이고 종종 구별할 수 없는 결과물을 생성할 수 있습니다. 그러나 이러한 기능은 악의적인 행위자가 딥페이크를 만들고, 허위 정보를 퍼뜨리고, 이 사건에서 주장된 바와 같이 아동 성 학대 자료(CSAM)를 생성할 수 있는 기회를 제공하기도 합니다.
Ofcom 대변인은 "우리는 AI가 유해 콘텐츠, 특히 아동을 착취하는 콘텐츠를 만드는 데 사용될 가능성에 대해 깊이 우려하고 있습니다."라고 말했습니다. "우리는 X와 협력하여 이러한 위험을 해결하고 사용자 안전을 보장하기 위해 어떤 조치를 취하고 있는지 파악하고 있습니다."
X는 Ofcom의 요청을 인지하고 조사에 전적으로 협력하고 있다고 밝혔습니다. 회사는 CSAM의 생성 및 배포를 금지하는 엄격한 정책을 시행하고 있으며 AI 안전 조치를 개선하기 위해 적극적으로 노력하고 있다고 주장합니다.
이번 사건은 AI의 급속한 발전으로 인해 발생하는 더 광범위한 사회적 과제를 부각합니다. AI 모델이 더욱 강력해지고 접근성이 높아짐에 따라 오용 가능성이 커지고 있으며, 강력한 규제 프레임워크와 윤리적 지침이 필요합니다. 전문가들은 AI 안전에 대한 지속적인 연구와 유해 콘텐츠 생성을 탐지하고 방지하는 도구 개발의 필요성을 강조합니다.
옥스퍼드 대학교의 AI 윤리 전문가인 아냐 샤르마 박사는 "지금은 AI 거버넌스를 위한 중요한 시점입니다."라고 말했습니다. "우리는 명확한 책임 소재를 확립하고 AI 개발자가 기술로 인해 발생할 수 있는 잠재적 피해에 대해 책임을 지도록 해야 합니다."
Ofcom 조사의 결과는 영국 및 그 외 지역의 AI 규제에 상당한 영향을 미칠 수 있습니다. 기존 법률의 더 엄격한 시행과 생성형 AI의 오용을 구체적으로 목표로 하는 새로운 규정 개발로 이어질 수 있습니다. 조사는 진행 중이며 Ofcom은 향후 몇 달 안에 조사 결과를 발표할 예정입니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요