OpenAI와 트레이닝 데이터 업체인 Handshake AI가 타사 계약자들에게 이전 및 현재 직책에서 완료한 실제 업무 사례를 업로드하도록 요청하여 지적 재산권 및 데이터 개인 정보 보호에 대한 우려를 불러일으키고 있는 것으로 알려졌습니다. Wired의 보도에 따르면, 이러한 움직임은 AI 기업들이 계약자를 활용하여 고품질 트레이닝 데이터를 생성하고, 궁극적으로 더 많은 화이트칼라 업무를 자동화하려는 광범위한 전략의 일환으로 보입니다.
OpenAI의 요청은 회사 프레젠테이션에 자세히 설명되어 있으며, 계약자들에게 다른 직장에서 수행한 업무를 자세히 설명하고 문서, 프레젠테이션, 스프레드시트, 이미지 및 코드 저장소를 포함한 업무의 구체적인 예를 제공하도록 요청합니다. 회사는 계약자들에게 이러한 파일을 업로드하기 전에 독점 정보 및 개인 식별 정보를 제거하도록 지시하고, 이를 위해 "ChatGPT Superstar Scrubbing tool"을 안내합니다.
실제 데이터를 사용하여 AI 모델을 훈련하는 방식은 점점 더 보편화되고 있습니다. 이러한 모델, 특히 OpenAI에서 개발한 것과 같은 대규모 언어 모델(LLM)은 패턴을 학습하고 일관성 있고 관련성 있는 출력을 생성하기 위해 방대한 양의 데이터가 필요합니다. AI 개발자는 다양한 실제 업무 사례를 통해 훈련함으로써 모델이 복잡한 작업을 이해하고 자동화하는 능력을 향상시키는 것을 목표로 합니다.
그러나 이러한 접근 방식은 심각한 법적 및 윤리적 문제를 제기합니다. 지적 재산권 변호사 Evan Brown은 Wired에 AI 연구소가 이러한 방법을 채택하는 것은 상당한 위험을 감수하는 것이라고 말했습니다. 왜냐하면 민감한 정보를 적절하게 제거하는 계약자의 신뢰성에 크게 의존하기 때문입니다. 기밀 데이터의 우발적 또는 의도적 공개 가능성은 주요 우려 사항입니다.
실제 데이터의 사용은 동의 및 개인 정보 보호에 대한 문제도 제기합니다. OpenAI는 계약자들에게 개인 식별 정보를 제거하도록 지시하지만, 특히 작업에 고유 식별자 또는 민감한 세부 정보가 포함된 경우 데이터를 완전히 익명화하는 것이 항상 가능한 것은 아닙니다. 이러한 방식으로 데이터가 사용되는 개인에게 미치는 영향은 아직 완전히 이해되지 않았습니다.
AI를 통한 화이트칼라 업무 자동화 추진은 효율성 향상 및 비용 절감의 잠재력에 의해 주도됩니다. 그러나 이는 또한 일자리 감소 및 업무의 변화하는 성격에 대한 우려를 불러일으킵니다. AI 모델이 이전에 인간이 수행했던 작업을 수행할 수 있게 됨에 따라 이러한 기술 변화의 사회적, 경제적 영향을 고려하는 것이 중요합니다.
현재 OpenAI와 Handshake AI가 데이터 수집 관행과 관련된 법적 및 윤리적 문제를 어떻게 해결하고 있는지는 불분명합니다. 해당 기업들은 아직 이 문제에 대한 공식 성명을 발표하지 않았습니다. 이러한 접근 방식이 AI 산업과 노동력에 미치는 장기적인 영향은 아직 지켜봐야 합니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요