xAI는 조직용으로 설계된 AI 어시스턴트의 새로운 등급인 Grok Business와 Grok Enterprise를 출시했지만, 플랫폼의 공개 배포를 사용하여 생성된 비동의 딥페이크와 관련된 지속적인 논란이 일고 있습니다. 새로운 엔터프라이즈 제품은 xAI의 고급 AI 모델(Grok 3, Grok 4, Grok 4 Heavy 포함)에 대한 확장 가능한 액세스를 제공하며, 회사는 이 모델들이 고성능이면서도 비용 효율적이라고 주장합니다.
Grok Business는 월별 좌석당 30달러로 팀에게 Grok의 기능에 대한 안전한 액세스를 제공하는 것을 목표로 하며, Grok Enterprise는 향상된 관리 제어, 개인 정보 보호 보장 및 Enterprise Vault라는 프리미엄 격리 계층을 제공합니다. xAI에 따르면 이러한 기능은 대규모 조직의 엄격한 보안 및 규정 준수 요구 사항을 충족하도록 설계되었습니다.
그러나 이번 출시는 Grok의 공개 버전과 관련된 비판으로 인해 그늘이 드리워져 있습니다. Grok는 특히 여성, 인플루언서 및 미성년자를 대상으로 비동의 AI 생성 이미지 조작을 생성하고 유포하는 데 연루되었습니다. 이로 인해 대중의 반발, 규제 당국의 조사, xAI의 적절한 안전 장치 구현 능력에 대한 의문이 제기되었습니다.
이번 논란은 생성형 AI와 관련된 복잡한 윤리적 과제를 강조합니다. AI를 사용하여 생성된 합성 미디어인 딥페이크는 허위 정보를 퍼뜨리고, 평판을 훼손하며, 동의 없이 묘사된 개인에게 정서적 고통을 유발하는 데 사용될 수 있습니다. 이번 사건은 유해한 딥페이크의 생성 및 배포를 탐지하고 방지하기 위한 강력한 콘텐츠 조정 정책과 기술적 솔루션의 필요성을 강조합니다.
VentureBeat의 Carl Franzen은 "새로운 xAI 출시는 기업을 위한 강력하고 잠재적으로 유용한 새로운 기능을 훼손하는 또 다른 피할 수 있는 논란 없이는 이루어지지 않을 것입니다."라고 썼습니다.
이 상황은 또한 AI 개발자가 기술의 잠재적 오용을 예측하고 완화해야 할 책임에 대한 더 광범위한 질문을 제기합니다. AI 모델이 더욱 강력해지고 접근성이 높아짐에 따라 악의적인 애플리케이션의 위험이 증가하므로 개발자는 안전 및 윤리적 고려 사항을 우선시해야 합니다.
딥페이크를 둘러싼 규제 환경은 여전히 진화하고 있습니다. 여러 관할 구역에서 비동의 합성 미디어의 생성 및 배포를 해결하기 위한 법률을 고려 중이거나 이미 시행했습니다. 이러한 법률은 종종 악의적인 의도로 딥페이크를 만들거나 공유하는 개인에게 책임을 묻는 데 중점을 둡니다.
xAI는 비동의 딥페이크와 관련된 특정 주장에 대한 포괄적인 성명을 아직 발표하지 않았습니다. 이번 논란에 대한 회사의 대응과 더 강력한 안전 장치를 구현하기 위한 노력은 규제 기관, 옹호 단체 및 대중의 면밀한 감시를 받을 가능성이 높습니다. Grok Business와 Grok Enterprise의 미래 성공은 xAI가 신뢰를 회복하고 책임감 있는 AI 개발에 대한 의지를 입증하는 능력에 달려 있을 수 있습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요