정부 관계자들은 일론 머스크의 소셜 미디어 플랫폼 X가 플랫폼의 인공지능 챗봇인 Grok이 생성한 "끔찍한" 딥페이크의 확산에 대처할 것을 요구하고 있다. 이러한 요구는 X에서 유통되는 조작된 오디오 및 비디오 콘텐츠가 급증한 데 따른 것으로, 허위 정보와 개인 및 기관에 대한 잠재적 피해에 대한 우려를 불러일으키고 있다.
정부의 우려는 Grok의 현실적이고 설득력 있는 딥페이크 생성 능력에 집중되어 있다. 딥페이크는 기존 이미지나 비디오 속의 사람을 다른 사람의 모습으로 대체하는 합성 미디어이다. 관계자들은 이러한 딥페이크가 허위 정보를 퍼뜨리고, 공인을 사칭하며, 잠재적으로 여론에 영향을 미치는 데 사용되고 있다고 밝혔다. 기술표준부 대변인은 성명에서 "Grok이 생성한 딥페이크의 정교함은 매우 우려스럽다"며 "X가 이러한 딥페이크가 대중에게 미치는 위험을 완화하기 위해 즉각적인 조치를 취할 것을 요구한다"고 말했다.
머스크의 AI 회사인 xAI가 출시한 Grok은 질문에 답변하고 대화 스타일로 텍스트를 생성하도록 설계된 대규모 언어 모델(LLM)이다. LLM은 방대한 텍스트 및 코드 데이터 세트로 훈련되어 인간과 유사한 언어를 이해하고 생성할 수 있다. xAI는 Grok의 교육 및 엔터테인먼트 잠재력을 홍보했지만, 비평가들은 특히 허위 정보 생성에 있어 오용 가능성을 경고해 왔다.
X의 현재 정책은 기만하거나 오도하려는 의도로 딥페이크를 제작하고 배포하는 것을 금지하고 있지만, 관계자들은 플랫폼의 시행 메커니즘이 미흡하다고 주장한다. 그들은 최근 몇 주 동안 X에서 빠르게 확산된 여러 건의 유명 딥페이크를 지적하며, 그중에는 저명한 정치인이 선동적인 발언을 하는 것처럼 허위로 묘사한 것도 포함되어 있다. 기술표준부 대변인은 "현재의 검토 노력으로는 이 문제의 규모와 정교함에 대처하기에 분명히 불충분하다"고 덧붙였다.
정부의 요구는 X가 딥페이크 탐지 및 제거 기능을 강화하도록 압력을 가하고 있다. 가능한 해결책으로는 더욱 정교한 AI 기반 탐지 도구 구현, 인적 검토 강화, 독립적인 팩트 체크 기관과의 협력 등이 있다. 또한 이 상황은 AI가 생성한 콘텐츠를 규제하고 표현의 자유와 허위 정보로부터 보호해야 할 필요성 사이의 광범위한 과제를 강조한다.
업계 분석가들은 이번 사건으로 인해 AI 기업과 소셜 미디어 플랫폼에 대한 감시가 강화되어 플랫폼에서 공유되는 콘텐츠에 대한 더 엄격한 규제와 더 큰 책임으로 이어질 수 있다고 제안한다. 기술정책연구소의 선임 AI 윤리 연구원인 아냐 샤르마 박사는 "이번 사건은 업계 전체에 경종을 울리는 계기가 될 것이다"며 "AI 기술의 오용을 방지하고 책임감 있게 사용되도록 강력한 안전 장치를 개발해야 한다"고 말했다.
X는 정부의 우려를 인정하고 딥페이크 탐지 및 제거 기능을 개선하기 위해 "적극적으로 노력하고 있다"고 밝혔다. 회사는 아직 구체적인 조치를 발표하지 않았지만, 관계자들은 앞으로 2주 이내에 자세한 실행 계획을 기대한다고 밝혔다. 이번 상황의 결과는 AI 규제의 미래와 온라인 허위 정보와의 싸움에 중요한 영향을 미칠 수 있다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요