정부가 딥페이크의 증가하는 위협, 특히 Grok AI와 같은 첨단 AI 모델의 등장에 대처하기 위해 고안된 법률 시행을 지연시키고 있다는 비판에 직면해 있습니다. 비판의 중심에는 입법 조치의 더딘 속도에 대한 인식이 있으며, 이는 기존 법적 틀이 기만적인 콘텐츠를 생성하는 현대 AI의 정교한 기능을 해결하기에 부적절하다는 우려를 불러일으키고 있습니다.
비평가들은 이러한 지연으로 인해 대중이 잘못된 정보와 조작에 취약해지고, 기관 및 민주적 절차에 대한 신뢰를 잠재적으로 훼손할 수 있다고 주장합니다. 기존 이미지나 비디오 속의 인물을 다른 사람의 모습으로 대체하는 합성 미디어로 정의되는 딥페이크는 점점 더 현실적이고 탐지하기 어려워지고 있습니다. xAI에서 개발한 Grok AI는 매우 설득력 있는 텍스트와 이미지를 생성할 수 있는 AI 기술의 상당한 발전을 나타내며, 오용 가능성을 더욱 악화시킵니다.
AI 윤리 및 정책 분야의 선도적인 전문가인 로라 크레스는 "정부의 무대응은 매우 우려스럽습니다."라고 말했습니다. "악의적인 딥페이크의 생성 및 유포를 억제하기 위한 강력한 법적 안전 장치가 필요합니다. 더 오래 기다릴수록 심각한 피해의 위험이 커집니다."
이 논쟁은 빠르게 진화하는 AI 기술을 규제하는 데 따르는 복잡한 과제를 강조합니다. 국회의원들은 혁신과 개인의 권리 및 사회적 복지 보호 사이의 균형을 맞추는 데 고심하고 있습니다. 주요 과제 중 하나는 딥페이크를 법적으로 정의하고 이를 생성하거나 공유하는 사람에 대한 적절한 책임 수준을 결정하는 데 있습니다.
명예훼손 및 사기와 관련된 법률과 같은 기존 법률이 특정 딥페이크에 적용될 수 있지만, 이러한 법률은 종종 이 기술과 관련된 고유한 특성 및 잠재적 피해를 해결하는 데 미흡합니다. 예를 들어, 딥페이크 생성에 대한 악의적인 의도를 입증하기 어려울 수 있으며, 온라인에서 잘못된 정보가 빠르게 확산되면 딥페이크가 공개된 후 피해를 억제하기가 어렵습니다.
유럽 연합은 딥페이크를 다루는 조항을 포함하는 AI 법을 통해 AI를 규제하기 위한 조치를 취했습니다. 그러나 미국 및 기타 국가에서는 여전히 포괄적인 법률을 개발 중입니다. 일부 전문가들은 법적 규제와 워터마킹 및 탐지 도구와 같은 기술적 솔루션을 결합한 다각적인 접근 방식을 옹호합니다.
정부는 새로운 법률의 의미를 신중하게 고려하고 있으며 기술 회사, 법률 전문가 및 시민 사회 단체를 포함한 광범위한 이해 관계자로부터 의견을 구하고 있다고 밝히며 정부의 접근 방식을 옹호했습니다. 관계자들은 AI 오용에 대한 적절한 보호를 보장하면서 혁신을 억압하지 않아야 할 필요성을 강조합니다.
정부 대변인은 성명에서 "우리는 딥페이크로 인한 문제 해결에 전념하고 있습니다."라고 말했습니다. "우리는 유익한 AI 기술 개발을 저해하지 않으면서 대중을 보호할 수 있는 포괄적이고 효과적인 법적 틀을 개발하기 위해 부지런히 노력하고 있습니다."
다음 단계에는 이해 관계자와의 추가 협의 및 특정 입법 제안 초안 작성이 포함됩니다. 정부가 비판가들의 우려를 해결하고 첨단 AI 시대에 딥페이크와 관련된 위험을 효과적으로 완화하는 법률을 제정할 수 있을지는 미지수입니다. 그 결과는 온라인 담론의 미래와 정보의 무결성에 상당한 영향을 미칠 것입니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요