A OpenAI e a empresa de dados de treinamento Handshake AI estão, segundo relatos, solicitando que contratados terceirizados carreguem exemplos de trabalhos reais concluídos em funções anteriores e atuais, levantando preocupações sobre propriedade intelectual e privacidade de dados. De acordo com uma reportagem na Wired, esta iniciativa parece fazer parte de uma estratégia mais ampla entre as empresas de IA para alavancar contratados para gerar dados de treinamento de alta qualidade, com o objetivo final de automatizar mais tarefas de escritório.
O pedido da OpenAI, descrito em uma apresentação da empresa, solicita que os contratados detalhem as tarefas realizadas em outros empregos e forneçam exemplos concretos de seu trabalho, incluindo documentos, apresentações, planilhas, imagens e repositórios de código. A empresa instrui os contratados a remover informações proprietárias e de identificação pessoal antes de carregar esses arquivos, direcionando-os para uma "ferramenta de limpeza ChatGPT Superstar" para esse fim.
A prática de usar dados do mundo real para treinar modelos de IA está se tornando cada vez mais comum. Esses modelos, particularmente os grandes modelos de linguagem (LLMs) como os desenvolvidos pela OpenAI, exigem vastas quantidades de dados para aprender padrões e gerar resultados coerentes e relevantes. Ao treinar com diversos exemplos de trabalho real, os desenvolvedores de IA visam melhorar a capacidade dos modelos de entender e automatizar tarefas complexas.
No entanto, essa abordagem levanta questões legais e éticas significativas. O advogado de propriedade intelectual Evan Brown disse à Wired que os laboratórios de IA que adotam este método estão correndo um risco considerável, pois dependem fortemente da confiabilidade dos contratados para limpar adequadamente as informações confidenciais. O potencial de divulgação acidental ou intencional de dados confidenciais é uma grande preocupação.
O uso de dados do mundo real também levanta questões sobre consentimento e privacidade. Embora a OpenAI instrua os contratados a remover informações de identificação pessoal, nem sempre é possível anonimizar completamente os dados, especialmente nos casos em que o trabalho contém identificadores exclusivos ou detalhes confidenciais. As implicações para os indivíduos cujos dados são usados dessa forma ainda não são totalmente compreendidas.
O esforço para automatizar o trabalho de escritório por meio da IA é impulsionado pelo potencial de aumento da eficiência e economia de custos. No entanto, também levanta preocupações sobre o deslocamento de empregos e a natureza mutável do trabalho. À medida que os modelos de IA se tornam mais capazes de realizar tarefas antes realizadas por humanos, é importante considerar as implicações sociais e econômicas dessa mudança tecnológica.
Atualmente, não está claro como a OpenAI e a Handshake AI estão abordando as preocupações legais e éticas em torno de suas práticas de coleta de dados. As empresas ainda não emitiram uma declaração pública sobre o assunto. O impacto a longo prazo dessa abordagem na indústria de IA e na força de trabalho ainda está por ser visto.
Discussion
Join the conversation
Be the first to comment