영국 통신 규제 기관인 Ofcom은 X(구 트위터)의 Grok AI 모델이 아동 성적 이미지 생성한다는 보고와 관련하여 X에 정보 제공을 요청했습니다. 이번 요청은 인공지능이 특히 미성년자와 관련된 유해 콘텐츠를 생성하는 데 오용될 가능성에 대한 우려가 커짐에 따라 이루어졌습니다.
Ofcom은 X가 이러한 이미지의 생성 및 유포를 방지하기 위해 마련한 안전 장치와 회사가 해당 주장에 어떻게 대응하고 있는지에 대한 세부 정보를 요구하고 있습니다. Ofcom은 사용자들을 유해 콘텐츠로부터 보호하지 못하는 기업에 벌금을 부과할 권한이 있으며, 이번 조사는 X가 영국 온라인 안전 규정을 준수하는지에 대한 심각한 우려를 나타냅니다.
X의 AI 챗봇인 Grok은 대규모 언어 모델(LLM)로, 방대한 양의 텍스트 데이터로 훈련된 AI 유형입니다. LLM은 텍스트를 생성하고, 언어를 번역하고, 질문에 답변할 수 있지만, AI 이미지 생성 기술을 사용하여 이미지를 만들도록 유도될 수도 있습니다. 우려되는 점은 악의적인 행위자들이 이러한 기능을 악용하여 아동 성 학대물(CSAM)을 제작할 수 있다는 것입니다.
Ofcom 대변인은 "우리는 AI가 이러한 방식으로 오용될 가능성에 대해 깊이 우려하고 있습니다."라며 "X에 이러한 일이 발생하는 것을 방지하고 온라인에서 아동의 안전을 보장하기 위해 취하고 있는 조치에 대한 정보를 제공해 줄 것을 요청하고 있습니다."라고 말했습니다.
이번 사태는 빠르게 발전하는 AI 기술이 제기하는 더 광범위한 사회적 과제를 부각합니다. AI는 수많은 이점을 제공하지만, 유해 콘텐츠를 생성하고 확산하는 데 오용될 가능성을 포함하여 위험도 내포하고 있습니다. 전문가들은 이러한 위험을 완화하기 위해 강력한 안전 장치와 윤리적 지침이 필요하다고 강조합니다.
베를린 헤르티 스쿨의 윤리 및 기술 교수인 조안나 브라이슨 박사는 "AI가 현실적인 이미지를 생성하는 능력은 CSAM의 제작 및 확산에 대한 심각한 우려를 불러일으킵니다."라며 "AI 기술을 개발하고 배포하는 기업은 오용을 방지하고 아동을 보호하기 위해 사전 예방적 조치를 취해야 합니다."라고 말했습니다.
X는 Ofcom의 요청에 대해 아직 공식 성명을 발표하지 않았습니다. 그러나 회사는 이전에도 플랫폼에서 CSAM 퇴치에 대한 의지를 밝힌 바 있습니다. 조사는 진행 중이며, Ofcom은 추가 조치가 필요한지 여부를 결정하기 위해 X의 답변을 평가할 것입니다. 이번 조사의 결과는 영국 및 그 외 지역의 AI 및 온라인 안전 규제에 상당한 영향을 미칠 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요