वायरड की एक रिपोर्ट के अनुसार, OpenAI और प्रशिक्षण डेटा फर्म हैंडशेक AI कथित तौर पर तीसरे पक्ष के ठेकेदारों से उनके पिछले और वर्तमान भूमिकाओं में किए गए वास्तविक काम को अपलोड करने का अनुरोध कर रहे हैं। ऐसा लगता है कि यह पहल AI कंपनियों द्वारा उच्च-गुणवत्ता वाले प्रशिक्षण डेटा उत्पन्न करने के लिए ठेकेदारों का लाभ उठाने की एक व्यापक रणनीति का हिस्सा है, जिसका अंतिम लक्ष्य अधिक व्हाइट-कॉलर कार्यों को स्वचालित करना है।
वायरड की रिपोर्ट के अनुसार, OpenAI की आंतरिक प्रस्तुति में कथित तौर पर ठेकेदारों को पिछले नौकरियों में किए गए कार्यों का विवरण देने और वर्ड डॉक्यूमेंट, PDF, पावरपॉइंट प्रेजेंटेशन, एक्सेल शीट, चित्र या कोड रिपॉजिटरी जैसे काम के मूर्त उदाहरण प्रदान करने का निर्देश दिया गया है। कंपनी कथित तौर पर ठेकेदारों को अपलोड करने से पहले मालिकाना जानकारी और व्यक्तिगत रूप से पहचान योग्य डेटा को हटाने की सलाह देती है, और इस उद्देश्य के लिए एक "ChatGPT सुपरस्टार स्क्रबिंग टूल" प्रदान करती है।
यह दृष्टिकोण महत्वपूर्ण बौद्धिक संपदा संबंधी चिंताएँ पैदा करता है। बौद्धिक संपदा वकील इवान ब्राउन ने वायर्ड को बताया कि इस पद्धति को अपनाने वाली किसी भी AI लैब को काफी जोखिम का सामना करना पड़ता है, क्योंकि यह अपने ठेकेदारों की विश्वसनीयता पर बहुत अधिक निर्भर करती है। चिंता ठेकेदारों द्वारा अनजाने में या जानबूझकर कॉपीराइट या गोपनीय सामग्री अपलोड करने की संभावना से उत्पन्न होती है, जिसे बाद में AI मॉडल में शामिल किया जा सकता है।
ठेकेदारों द्वारा अपलोड किया गया डेटा AI मॉडल को प्रशिक्षित करने के लिए है, जिससे वे मानव कार्य प्रक्रियाओं को बेहतर ढंग से समझ और दोहरा सकते हैं। इस प्रक्रिया में मॉडल को बड़ी मात्रा में डेटा फीड करना शामिल है, जिससे वे जानकारी के भीतर पैटर्न और संबंधों की पहचान कर सकते हैं। इसका लक्ष्य न्यूनतम मानवीय हस्तक्षेप के साथ जटिल कार्यों को करने में सक्षम AI सिस्टम बनाना है।
वास्तविक दुनिया के उदाहरणों का उपयोग AI मॉडल विकसित करने के लिए महत्वपूर्ण माना जाता है जो व्हाइट-कॉलर नौकरियों को सटीक और प्रभावी ढंग से स्वचालित कर सकते हैं। प्रामाणिक कार्य नमूनों पर प्रशिक्षण करके, AI सिस्टम विभिन्न व्यावसायिक कार्यों की बारीकियों और जटिलताओं को संभालना सीख सकते हैं। हालाँकि, इस तरह के डेटा का उपयोग करने के नैतिक और कानूनी निहितार्थ अभी भी चल रही बहस का विषय हैं।
वर्तमान में, यह स्पष्ट नहीं है कि OpenAI अपलोड किए गए डेटा का उपयोग कैसे करने की योजना बना रहा है और दुरुपयोग या कॉपीराइट उल्लंघन को रोकने के लिए क्या सुरक्षा उपाय किए गए हैं। कंपनी ने अभी तक रिपोर्ट के बारे में कोई आधिकारिक बयान जारी नहीं किया है। यह स्थिति AI प्रशिक्षण के लिए डेटा की सोर्सिंग और उपयोग में शामिल चुनौतियों और जटिलताओं को उजागर करती है, खासकर जब संवेदनशील या मालिकाना जानकारी से निपटना हो। घटनाक्रमों पर कानूनी विशेषज्ञों और उद्योग पर्यवेक्षकों द्वारा समान रूप से बारीकी से निगरानी किए जाने की संभावना है।
Discussion
Join the conversation
Be the first to comment