아동 성 학대 이미지 식별 및 제거에 주력하는 영국 기반 자선 단체인 인터넷 감시 재단(IWF)은 일론 머스크의 xAI가 개발한 인공 지능 모델인 Grok이 생성한 것으로 "보이는" 이미지를 발견했다고 보고했습니다. IWF는 불법 콘텐츠에 대한 일상적인 인터넷 모니터링 중에 이 사실을 발견했습니다.
IWF는 자료의 추가 배포를 피해야 할 필요성을 언급하며 이미지의 구체적인 성격은 공개하지 않았습니다. 그러나 이 조직은 해당 이미지가 아동 성 학대 이미지에 대한 기준을 충족한다고 확인했습니다. IWF의 CEO인 수지 하그리브스 OBE는 보도 자료에서 "우리의 우선 순위는 아동의 안전이며, 이러한 유형의 콘텐츠를 인터넷에서 제거하기 위해 부지런히 노력하고 있습니다."라고 말했습니다. "이 문제를 해결하기 위해 관련 플랫폼 및 법 집행 기관과 협력하고 있습니다."
2023년 말에 출시된 Grok은 텍스트를 생성하고, 언어를 번역하고, 다양한 종류의 창의적인 콘텐츠를 작성하고, 유익한 방식으로 질문에 답변하도록 설계된 대규모 언어 모델(LLM)입니다. LLM은 방대한 텍스트 및 코드 데이터 세트로 훈련되어 언어의 패턴과 관계를 학습할 수 있습니다. 그러나 이러한 훈련은 또한 모델을 유해한 콘텐츠에 부주의하게 노출시켜 결과물에서 복제될 수 있습니다.
이번 사건은 아동 성 학대 자료 제작을 포함하여 AI 모델이 악의적인 목적으로 오용될 가능성에 대한 우려를 제기합니다. AI 안전 분야의 전문가들은 오랫동안 이러한 기술의 통제되지 않은 개발 및 배포와 관련된 위험에 대해 경고해 왔습니다. 베를린 헤르티 스쿨의 윤리 및 기술 교수인 조안나 브라이슨 박사는 "이는 AI가 이러한 방식으로 악용되는 것을 방지하기 위해 강력한 안전 장치가 필요하다는 것을 분명히 상기시켜 줍니다."라고 말했습니다. "개발자는 모델이 유해한 콘텐츠를 생성할 수 없도록 할 책임이 있습니다."
xAI는 아직 IWF의 조사 결과에 대한 공식 성명을 발표하지 않았습니다. 그러나 일론 머스크는 이전에 AI를 책임감 있고 윤리적으로 개발하겠다는 의지를 표명했습니다. 회사 웹사이트에는 유해한 콘텐츠 생성을 방지하기 위한 조치를 포함하여 AI 안전에 대한 접근 방식이 간략하게 설명되어 있습니다. xAI가 IWF 보고서에서 제기된 특정 문제를 해결하기 위해 어떤 조치를 취할지는 아직 알 수 없습니다.
IWF는 확인된 이미지를 제거하고 추가 확산을 방지하기 위해 온라인 플랫폼 및 법 집행 기관과 계속 협력하고 있습니다. 이번 사건은 특히 취약한 개인에게 해를 끼칠 위험이 있는 분야에서 AI 개발 및 배포에 대한 더 엄격한 규제의 필요성에 대한 추가 논쟁을 촉발할 가능성이 높습니다. 영국 정부는 현재 AI 시스템의 안전과 보안을 보장하기 위한 조치를 포함하여 AI가 제기하는 문제에 대처하기 위한 새로운 법안을 고려하고 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요