정부가 딥페이크 방지 법안 시행을 지연한다는 비판에 직면해 있으며, 특히 현실적이고 오해의 소지가 있는 콘텐츠를 생성할 수 있는 새로운 인공지능 모델인 Grok AI의 등장으로 인해 이러한 비판이 더욱 거세지고 있습니다. 비평가들은 기술이 더욱 정교해지고 접근성이 높아짐에 따라 이러한 지연으로 인해 대중이 허위 정보와 조작에 취약해진다고 주장합니다.
우려는 Grok AI 및 유사한 모델이 현실과 구별하기 어려운 딥페이크 비디오 및 오디오 녹음을 생성할 가능성에 집중됩니다. 고급 머신 러닝 기술을 사용하여 만들어진 딥페이크는 개인이 실제로 하지 않은 말이나 행동을 묘사하여 평판을 손상시키거나 여론에 영향을 미치거나 심지어 폭력을 선동할 수 있습니다. 기반 기술은 종종 생성적 적대 신경망(GAN)을 포함하며, 여기서 두 개의 신경망이 서로 경쟁합니다. 하나는 가짜 콘텐츠를 생성하고 다른 하나는 이를 감지하려고 시도하여 점점 더 현실적인 결과물을 생성합니다.
디지털 권리 옹호자인 로라 크레스는 "딥페이크 규제를 늦출수록 악의적인 행위자가 이 기술을 악용할 기회가 더 많아집니다."라며 "Grok AI의 기능은 긴급성을 더욱 증폭시킵니다. 유해한 딥페이크의 생성 및 배포를 억제하고 가해자에게 책임을 물을 수 있는 명확한 법적 프레임워크가 필요합니다."라고 말했습니다.
제안된 법안은 딥페이크 문제의 몇 가지 핵심 측면을 해결하는 것을 목표로 합니다. 여기에는 딥페이크의 정의, 악의적인 딥페이크를 생성하거나 배포하는 사람에 대한 법적 책임 설정, 플랫폼이 딥페이크 콘텐츠를 감지하고 제거하기 위한 조치를 구현하도록 요구하는 것이 포함됩니다. 이 지연은 사안에 정통한 소식통에 따르면 법안의 범위와 표현의 자유 권리 침해 가능성에 대한 우려에 대한 지속적인 논쟁에서 비롯됩니다.
일부에서는 지나치게 광범위한 규제가 예술적 표현이나 풍자와 같은 AI 기술의 합법적인 사용을 억압할 수 있다고 주장합니다. 다른 사람들은 표현의 자유와 허위 정보의 해악으로부터 개인과 사회를 보호하는 것 사이의 균형을 맞출 필요성을 강조합니다. 이 논쟁은 AI와 같이 빠르게 진화하는 기술을 규제하는 데 따르는 복잡한 과제를 강조합니다.
기술 및 사회 연구소의 AI 윤리 연구원인 아냐 샤르마 박사는 "올바른 균형을 찾는 것이 중요합니다."라며 "혁신이나 표현의 자유를 부당하게 제한하지 않으면서 피해를 예방하는 데 효과적인 규제가 필요합니다. 이를 위해서는 Grok AI와 같은 AI 모델의 기술적 기능과 잠재적인 사회적 영향에 대한 신중한 고려가 필요합니다."라고 말했습니다.
정부는 우려를 인정하고 딥페이크 위협에 대처하기 위해 노력하고 있다고 밝혔습니다. 관계자들은 법안이 여전히 검토 중이며 다양한 이해 관계자의 피드백을 통합하기 위해 노력하고 있다고 밝혔습니다. 그러나 법안이 언제 확정되어 시행될지에 대한 구체적인 일정은 제시되지 않았습니다. 그동안 전문가들은 개인이 온라인 콘텐츠에 대해 비판적인 소비자가 되고 딥페이크가 허위 정보를 퍼뜨리는 데 사용될 가능성에 대해 인지할 것을 촉구하고 있습니다. 딥페이크를 탐지하는 도구의 개발 및 배포도 진행 중이지만 많은 사람들은 이러한 도구가 AI 기술의 발전과 끊임없이 따라잡기 경쟁을 벌이고 있음을 인정합니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요