OpenAI와 트레이닝 데이터 업체인 Handshake AI가 타사 계약자들에게 이전 및 현재 직책에서 완료한 실제 업무를 업로드하도록 요청하고 있다고 Wired가 보도했습니다. 이 이니셔티브는 AI 기업들이 계약자를 활용하여 고품질 트레이닝 데이터를 생성하고, 궁극적으로 고급 AI 모델을 통해 더 많은 화이트칼라 업무를 자동화하려는 광범위한 전략의 일환으로 보입니다.
Wired 보고서에 따르면 OpenAI는 계약자들에게 다른 직장에서 수행한 업무를 자세히 설명하고 실제 업무 결과물을 제공하도록 지시합니다. 이러한 예시에는 문서, 프레젠테이션, 스프레드시트, 이미지 또는 코드 저장소가 포함될 수 있습니다. 회사는 계약자들에게 파일을 업로드하기 전에 독점 정보 및 개인 식별 정보를 제거하도록 권고하며, 이 과정을 돕기 위해 "ChatGPT Superstar Scrubbing tool"을 제공하는 것으로 알려졌습니다.
이러한 관행은 지적 재산과 관련된 중요한 법적 및 윤리적 문제를 제기합니다. 지적 재산 변호사인 Evan Brown은 Wired와의 인터뷰에서 이 접근 방식은 민감한 데이터를 적절하게 제거하는 계약자의 신뢰성에 크게 의존하기 때문에 AI 연구소에 상당한 위험을 초래한다고 말했습니다.
이 전략의 핵심은 머신 러닝 개념에 있습니다. AI 모델, 특히 OpenAI에서 개발한 것과 같은 대규모 언어 모델(LLM)은 학습하고 개선하기 위해 방대한 양의 데이터가 필요합니다. 이 데이터는 모델이 언어를 이해하고, 텍스트를 생성하고, 기타 작업을 수행하도록 훈련하는 데 사용됩니다. AI 기업은 실제 완료된 업무의 예시를 제공함으로써 모델을 미세 조정하여 복잡한 전문 업무를 더 잘 복제하고 자동화하는 것을 목표로 합니다.
이러한 데이터 수집 전략의 영향은 기술적인 영역을 넘어섭니다. 성공할 경우 화이트칼라 직업의 자동화는 노동 시장에 상당한 변화를 가져와 다양한 산업 분야의 노동자를 대체할 가능성이 있습니다. 데이터 프라이버시 및 지적 재산권과 관련된 윤리적 고려 사항도 가장 중요해지며, 세심한 주의와 강력한 보호 장치가 필요합니다.
현재 AI 업계 전반에 걸쳐 이러한 관행이 얼마나 널리 퍼져 있는지는 불분명합니다. 그러나 이 보고서는 AI 기업들이 계약자로부터 고품질 트레이닝 데이터를 얻으려는 추세가 증가하고 있음을 시사합니다. 이러한 추세가 AI 환경과 더 넓은 범위의 인력에 미치는 장기적인 영향은 아직 알 수 없지만, 법적, 윤리적, 사회적 관점에서 면밀한 조사가 필요합니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요