OpenAI와 트레이닝 데이터 회사인 Handshake AI가 계약자들에게 이전 및 현재 고용 상태에서 얻은 실제 작업 샘플을 제출하도록 요청하고 있다고 Wired가 보도했습니다. 이 이니셔티브는 AI 기업들이 고품질 트레이닝 데이터를 확보하여 자사 모델이 더욱 복잡한 화이트칼라 업무를 자동화할 수 있도록 하는 데 초점을 맞춘 광범위한 추세의 일환으로 보입니다.
보도에 따르면 OpenAI는 계약자들에게 이전 직장에서 수행했던 업무를 상세히 설명하고 Word 문서, PDF, PowerPoint 프레젠테이션, Excel 스프레드시트, 이미지 또는 코드 저장소와 같은 완료된 작업의 실질적인 예시를 업로드하도록 지시했습니다. 회사는 계약자들에게 파일을 업로드하기 전에 독점 정보 및 개인 식별 데이터를 제거하도록 권고하며, 이를 위해 "ChatGPT Superstar Scrubbing tool"에 대한 액세스를 제공하는 것으로 알려졌습니다.
이러한 관행은 지적 재산권에 대한 우려를 불러일으킵니다. 지적 재산권 변호사인 Evan Brown은 Wired와의 인터뷰에서 이러한 접근 방식을 채택하는 AI 연구소는 계약자들이 민감한 데이터를 제대로 제거할 것이라는 신뢰에 크게 의존하기 때문에 상당한 위험에 직면한다고 말했습니다.
이러한 데이터 수집의 근본적인 원리는 AI 모델이 실제 작업을 이해하고 복제하는 능력을 향상시키는 데 있습니다. AI 모델, 특히 OpenAI에서 개발한 것과 같은 대규모 언어 모델은 패턴을 학습하고 정확한 결과를 생성하기 위해 방대한 양의 데이터가 필요합니다. 기업은 실제 작업 샘플을 기반으로 이러한 모델을 학습시켜 일반적으로 인간의 전문 지식이 필요한 작업을 자동화하는 데 있어 성능을 향상시키는 것을 목표로 합니다.
이러한 추세의 영향은 개별 기업을 넘어 미래의 업무에 잠재적인 영향을 미칩니다. AI 모델이 화이트칼라 업무를 수행하는 데 더욱 능숙해짐에 따라 다양한 산업 분야에서 자동화가 증가할 가능성이 있습니다. 이는 고용 패턴의 변화로 이어질 수 있으며 근로자는 AI 기술을 보완하는 새로운 역할에 적응해야 할 수 있습니다.
현재 AI 산업 전반에 걸쳐 이러한 관행이 얼마나 널리 퍼져 있는지, 그리고 지적 재산 및 개인 정보 보호를 위해 어떤 안전 장치가 마련되어 있는지 불분명합니다. AI 트레이닝을 위한 실제 작업 샘플 사용과 관련된 법적 및 윤리적 고려 사항은 기술이 계속 발전함에 따라 지속적인 감시 대상이 될 가능성이 높습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요