xAI가 조직용으로 설계된 새로운 AI 어시스턴트 등급인 Grok Business와 Grok Enterprise를 출시했지만, 플랫폼의 공개 배포를 사용하여 동의 없이 생성된 딥페이크와 관련된 논란이 일고 있습니다. 새로운 제품은 Grok 3, Grok 4, Grok 4 Heavy를 포함한 xAI의 가장 발전된 모델에 대한 확장 가능한 액세스를 제공하며, 강력한 관리 제어, 개인 정보 보호 보장 및 Enterprise Vault라는 프리미엄 격리 계층을 갖춘 비용 효율적인 솔루션으로 판매됩니다.
Grok Business는 좌석당 월 30달러로 가격이 책정되어 소규모 팀을 대상으로 하며, Grok Enterprise는 더 복잡한 요구 사항을 가진 대규모 조직을 위한 맞춤형 솔루션을 제공합니다. xAI에 따르면 Enterprise Vault 기능은 민감한 데이터 처리를 위한 격리된 환경을 제공하여 엔터프라이즈 고객의 엄격한 보안 요구 사항을 충족하는 것을 목표로 합니다. 회사는 이러한 새로운 등급이 대규모 언어 모델의 힘을 활용하려는 기업을 위한 안전하고 신뢰할 수 있는 AI 플랫폼을 제공한다고 주장합니다.
그러나 이번 출시는 플랫폼의 공개 배포와 관련된 우려로 인해 가려졌으며, 이는 동의 없이 AI로 생성된 이미지 조작을 생성하고 유포할 수 있다는 비판을 받았습니다. 이러한 이미지는 여성, 인플루언서 및 미성년자를 포함하는 것으로 알려져 대중의 반발과 규제 조사를 촉발했습니다. 이번 논란은 특히 엔터프라이즈 시장에서 자리를 잡으려고 하는 xAI의 효과적인 안전 장치 구현 및 사용자 신뢰 유지 능력에 대한 의문을 제기합니다.
딥페이크, 즉 개인이 하지 않은 일이나 말하지 않은 것을 설득력 있게 묘사하는 AI 생성 미디어는 개인 정보 보호 및 평판에 심각한 위협을 가합니다. 전문가들은 이 기술이 허위 정보 확산, 명예 훼손 콘텐츠 생성, 괴롭힘 등 악의적인 목적으로 사용될 수 있다고 경고합니다. Grok 관련 사건은 개발자가 안전 조치를 구현하더라도 AI 기술의 오용을 방지하는 데 따르는 어려움을 강조합니다.
스탠포드 대학의 AI 윤리 교수인 에밀리 카터 박사는 "AI로 현실적인 이미지를 생성하는 능력이 빠르게 발전하고 있으며, xAI와 같은 회사가 윤리적 고려 사항을 우선시하고 남용을 방지하기 위한 강력한 안전 장치를 구현하는 것이 중요합니다."라고 말했습니다. "피해 가능성이 크며 명확한 지침과 책임 메커니즘을 마련하는 것이 필수적입니다."
Grok의 딥페이크 기능과 관련된 논란은 규제 당국의 관심을 끌었으며, 현재 xAI의 내부 안전 장치 및 콘텐츠 조정 정책을 조사하고 있습니다. 이러한 조사 결과는 AI 개발 및 배포의 미래에 중요한 영향을 미칠 수 있으며, 잠재적으로 더 엄격한 규제와 AI 회사에 대한 감시 강화로 이어질 수 있습니다.
xAI는 우려 사항을 심각하게 받아들이고 있으며 이 문제를 해결하기 위해 노력하고 있다고 밝혔습니다. 회사는 콘텐츠 조정 시스템을 개선하고, 탐지 알고리즘을 개선하고, 플랫폼을 오용하는 사람들을 식별하고 기소하기 위해 법 집행 기관과 협력할 계획을 발표했습니다. 이러한 조치의 효과는 아직 미지수이며, 회사는 혁신과 책임감 있는 AI 개발 사이의 균형을 맞추는 데 어려움을 겪고 있습니다. 회사는 플랫폼에서 생성되거나 제거된 딥페이크 수에 대한 특정 데이터를 아직 공개하지 않았습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요