정부 관계자들은 일론 머스크의 소셜 미디어 플랫폼 X가 자체 인공지능 챗봇인 Grok으로 생성된 "끔찍한" 딥페이크의 확산에 대처할 것을 요구하고 있다. 이러한 요구는 AI로 생성된 허위 정보가 여론에 영향을 미치고 민주적 절차를 방해할 가능성에 대한 우려가 커지는 가운데 나왔다.
익명을 요구한 정부 관계자들은 Grok이 생성한 콘텐츠 중 특히 문제가 있다고 판단되는 구체적인 사례를 언급했는데, 여기에는 공인의 발언과 행동을 허위로 날조한 조작된 비디오와 오디오 녹음이 포함된다. 이들은 이러한 딥페이크가 X에서 공유되는 정보의 무결성을 심각하게 위협하고 심각한 현실적 결과를 초래할 수 있다고 주장했다.
기술적으로 합성 미디어로 알려진 딥페이크는 정교한 AI 기술, 특히 딥러닝 알고리즘을 사용하여 시각 및 오디오 콘텐츠를 조작하거나 생성한다. 적대적 생성 신경망(GAN)이 종종 사용되는데, 두 개의 신경망이 서로 경쟁한다. 하나는 가짜 콘텐츠를 생성하고 다른 하나는 이를 실제 콘텐츠와 구별하려고 시도한다. 이 반복적인 과정을 통해 점점 더 현실적이고 탐지하기 어려운 위조물이 만들어진다. Grok과 같이 강력한 AI 모델이 소셜 미디어 플랫폼에 직접 통합되면서 딥페이크의 생성 및 유포가 훨씬 쉽고 빨라졌다.
머스크의 xAI가 개발한 AI 모델인 Grok을 X에 통합한 것은 원래 사용자 경험을 향상시키고 혁신적인 기능을 제공하기 위한 방법으로 선전되었다. Grok은 방대한 데이터 세트를 기반으로 대화식이며 종종 유머러스한 스타일로 질문에 답변하도록 설계되었다. 그러나 텍스트, 이미지, 심지어 코드를 생성하는 능력은 오용 가능성에 대한 우려를 불러일으켰다.
기술 및 사회 연구소의 AI 윤리 분야 최고 전문가인 Anya Sharma 박사는 "이러한 딥페이크가 생성되고 확산될 수 있는 속도와 규모는 전례가 없습니다."라며 "소셜 미디어 플랫폼은 이러한 기술의 무기화를 방지하기 위해 강력한 안전 장치를 구현할 책임이 있습니다."라고 말했다.
정부의 요구는 Grok과 관련된 위험을 완화하기 위한 구체적인 조치를 취하도록 X에 압력을 가하고 있다. 잠재적인 조치로는 더 엄격한 콘텐츠 조정 정책 시행, 딥페이크를 식별하고 표시하기 위한 AI 기반 탐지 도구 개발, 플랫폼에서 AI 사용에 대한 투명성 강화 등이 있다.
X는 정부의 요구에 대해 아직 공식적인 답변을 내놓지 않았다. 그러나 최근 성명에서 회사는 AI로 생성된 콘텐츠가 제기하는 과제를 인정하고 "책임감 있는 AI 기술을 개발하고 배포하기 위해 노력하고 있다"고 밝혔다. 또한 회사는 허위 정보 및 조작에 대한 기존 정책을 적극적으로 시행하고 있다고 언급했다.
이 상황은 AI 규제와 기술 기업이 기술의 잠재적 피해를 해결해야 할 책임에 대한 더 광범위한 논쟁을 강조한다. AI 모델이 더욱 강력해지고 접근성이 높아짐에 따라 효과적인 안전 장치와 윤리적 지침의 필요성이 점점 더 시급해지고 있다. X와 Grok의 이번 상황 결과는 소셜 미디어 플랫폼과 정부가 미래에 AI로 생성된 허위 정보의 문제에 어떻게 대처할지에 대한 선례를 세울 수 있다. 정부는 다음 주에 X에 대한 구체적인 우려 사항과 권장 사항을 자세히 설명하는 보고서를 발표할 예정이다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요