정부가 딥페이크 방지 법안 시행을 지연한다는 비판에 직면하고 있으며, 특히 Grok AI의 등장과 그 잠재적 오용 가능성이 이러한 비판을 더욱 부채질하고 있습니다. 비평가들은 이러한 지연으로 인해 대중이 점점 더 정교해지는 형태의 허위 정보와 조작에 취약해진다고 주장합니다.
비판의 중심에는 딥페이크 콘텐츠의 제작 및 배포를 식별, 라벨링하고 처벌하기 위한 법적 틀을 확립하는 제안된 법안의 더딘 진행 속도가 있습니다. 딥페이크는 기존 이미지나 비디오 속의 인물을 다른 사람의 모습으로 대체하는 합성 미디어로, 주로 딥러닝과 같은 인공지능 기술을 사용하여 만들어집니다. 이러한 기술을 통해 매우 현실적이지만 조작된 비디오 및 오디오 녹음을 생성할 수 있습니다.
AI 윤리 및 정책 분야의 선도적인 전문가인 로라 크레스는 최근 인터뷰에서 "강력한 법안을 제정하기를 기다릴수록 딥페이크가 선거를 훼손하고, 명예를 훼손하며, 불화를 조장하는 데 사용될 위험이 커집니다."라고 말했습니다. 크레스는 특히 Grok AI 개발과 같은 AI 기술의 급속한 발전이 잠재적 오용의 촉매제가 될 수 있다고 지적하며 상황의 시급성을 더욱 강조했습니다.
xAI에서 개발한 Grok AI는 대화 능력과 X 플랫폼(구 트위터)을 통한 실시간 정보 접근으로 알려진 대규모 언어 모델(LLM)입니다. LLM은 방대한 텍스트 및 코드 데이터 세트로 훈련된 AI 시스템으로, 인간과 유사한 텍스트를 생성하고, 언어를 번역하고, 질문에 답변할 수 있습니다. Grok AI는 유익한 목적으로 설계되었지만, 여러 기술 감시 단체에서 제기한 우려에 따르면 그 기능이 대규모로 설득력 있는 딥페이크를 생성하고 배포하는 데 악용될 수 있습니다.
제안된 법안은 딥페이크 문제의 몇 가지 핵심 측면을 해결하는 것을 목표로 합니다. 여기에는 AI 생성 콘텐츠에 대한 의무적 라벨링, 동의 없이 자신의 모습이 사용된 개인에 대한 법적 구제 수단 마련, 악의적인 딥페이크를 제작 및 배포하는 사람에 대한 처벌 부과 조항이 포함됩니다. 또한 이 법안은 소셜 미디어 플랫폼의 딥페이크 콘텐츠 식별 및 제거에 대한 법적 책임을 명확히 하고자 합니다.
그러나 이 법안은 법안의 범위, 표현의 자유에 대한 잠재적 영향에 대한 우려, 딥페이크 탐지의 기술적 실현 가능성에 대한 이견 등 수많은 난관에 직면해 있습니다. 일부에서는 지나치게 광범위한 법안이 예술적 표현 및 풍자와 같은 AI 기술의 합법적인 사용을 억압할 수 있다고 주장합니다. 다른 사람들은 현재의 탐지 방법이 딥페이크 기술의 급속한 발전을 따라잡을 수 있는지에 대해 회의적인 입장을 표명합니다.
익명을 요구한 정부 대변인은 "해악으로부터 대중을 보호하는 것과 표현의 자유를 보존하는 것 사이에서 올바른 균형을 찾는 것은 복잡한 과제입니다."라며 "우리는 우리가 제정하는 모든 법안이 효과적이고 합헌적인지 확인하기 위해 최선을 다하고 있습니다."라고 말했습니다.
현재 법안의 상황은 의회 상임위원회의 검토를 받고 있다는 것입니다. 향후 몇 주 동안 일련의 공청회가 예정되어 있으며, 이 기간 동안 전문가, 이해 관계자 및 일반 대중이 의견을 제시할 기회를 갖게 됩니다. 정부는 연말까지 법안을 마무리할 의향을 밝혔지만, 비평가들은 이전의 지연과 명확한 의지 부족을 이유로 회의적인 입장을 유지하고 있습니다. 이 논쟁은 기술 혁신과 잠재적 위험을 완화하기 위한 규제 프레임워크의 필요성 사이의 지속적인 긴장을 강조합니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요