OpenAI et la société de données d'entraînement Handshake AI demanderaient à des contractuels tiers de télécharger des exemples de travaux réels effectués dans des rôles précédents et actuels, ce qui soulève des inquiétudes concernant la propriété intellectuelle et la confidentialité des données. Selon un rapport de Wired, cette initiative semble s'inscrire dans une stratégie plus large des entreprises d'IA visant à tirer parti des contractuels pour générer des données d'entraînement de haute qualité, dans le but ultime d'automatiser davantage de tâches administratives.
La demande d'OpenAI, exposée dans une présentation de l'entreprise, invite les contractuels à détailler les tâches effectuées dans d'autres emplois et à fournir des exemples concrets de leur travail, notamment des documents, des présentations, des feuilles de calcul, des images et des référentiels de code. L'entreprise demande aux contractuels de supprimer les informations exclusives et personnellement identifiables avant de télécharger ces fichiers, en les dirigeant vers un "outil de nettoyage ChatGPT Superstar" à cet effet.
La pratique consistant à utiliser des données du monde réel pour entraîner des modèles d'IA est de plus en plus courante. Ces modèles, en particulier les grands modèles linguistiques (LLM) comme ceux développés par OpenAI, nécessitent de vastes quantités de données pour apprendre des schémas et générer des résultats cohérents et pertinents. En s'entraînant sur divers exemples de travaux réels, les développeurs d'IA visent à améliorer la capacité des modèles à comprendre et à automatiser des tâches complexes.
Cependant, cette approche soulève d'importantes questions juridiques et éthiques. L'avocat spécialisé en propriété intellectuelle Evan Brown a déclaré à Wired que les laboratoires d'IA qui adoptent cette méthode prennent un risque considérable, car elle repose fortement sur la fiabilité des contractuels pour nettoyer correctement les informations sensibles. Le risque de divulgation accidentelle ou intentionnelle de données confidentielles est une préoccupation majeure.
L'utilisation de données du monde réel soulève également des questions de consentement et de confidentialité. Bien qu'OpenAI demande aux contractuels de supprimer les informations personnellement identifiables, il n'est pas toujours possible d'anonymiser complètement les données, en particulier dans les cas où le travail contient des identifiants uniques ou des détails sensibles. Les implications pour les personnes dont les données sont utilisées de cette manière ne sont pas encore entièrement comprises.
La volonté d'automatiser le travail administratif grâce à l'IA est motivée par le potentiel d'augmentation de l'efficacité et de réduction des coûts. Cependant, elle soulève également des inquiétudes quant aux suppressions d'emplois et à l'évolution de la nature du travail. À mesure que les modèles d'IA deviennent plus capables d'effectuer des tâches auparavant effectuées par des humains, il est important de tenir compte des implications sociales et économiques de cette évolution technologique.
Actuellement, on ne sait toujours pas comment OpenAI et Handshake AI abordent les préoccupations juridiques et éthiques concernant leurs pratiques de collecte de données. Les entreprises n'ont pas encore publié de déclaration publique à ce sujet. L'impact à long terme de cette approche sur l'industrie de l'IA et la main-d'œuvre reste à déterminer.
Discussion
Join the conversation
Be the first to comment