रिपोर्टों के अनुसार, OpenAI और प्रशिक्षण डेटा फर्म हैंडशेक AI, तीसरे पक्ष के ठेकेदारों से उनके पिछले और वर्तमान भूमिकाओं में किए गए वास्तविक कार्यों के उदाहरण अपलोड करने का अनुरोध कर रहे हैं, जिससे बौद्धिक संपदा और डेटा गोपनीयता के बारे में चिंताएँ बढ़ रही हैं। वायर्ड में प्रकाशित एक रिपोर्ट के अनुसार, यह पहल AI कंपनियों द्वारा उच्च-गुणवत्ता वाले प्रशिक्षण डेटा उत्पन्न करने के लिए ठेकेदारों का लाभ उठाने की एक व्यापक रणनीति का हिस्सा प्रतीत होती है, जिसका अंतिम लक्ष्य अधिक व्हाइट-कॉलर कार्यों को स्वचालित करना है।
OpenAI के अनुरोध, जो एक कंपनी प्रस्तुति में उल्लिखित है, में ठेकेदारों से अन्य नौकरियों में किए गए कार्यों का विवरण देने और उनके काम के ठोस उदाहरण प्रदान करने के लिए कहा गया है, जिसमें दस्तावेज़, प्रस्तुतियाँ, स्प्रेडशीट, चित्र और कोड रिपॉजिटरी शामिल हैं। कंपनी ठेकेदारों को इन फ़ाइलों को अपलोड करने से पहले मालिकाना और व्यक्तिगत रूप से पहचान योग्य जानकारी हटाने का निर्देश देती है, और इस उद्देश्य के लिए उन्हें "ChatGPT सुपरस्टार स्क्रबिंग टूल" पर निर्देशित करती है।
AI मॉडल को प्रशिक्षित करने के लिए वास्तविक दुनिया के डेटा का उपयोग करने की प्रथा तेजी से आम होती जा रही है। इन मॉडलों, विशेष रूप से OpenAI द्वारा विकसित किए गए बड़े भाषा मॉडल (LLM) जैसे मॉडलों को पैटर्न सीखने और सुसंगत और प्रासंगिक आउटपुट उत्पन्न करने के लिए भारी मात्रा में डेटा की आवश्यकता होती है। वास्तविक कार्यों के विविध उदाहरणों पर प्रशिक्षण देकर, AI डेवलपर्स का लक्ष्य मॉडल की जटिल कार्यों को समझने और स्वचालित करने की क्षमता में सुधार करना है।
हालांकि, यह दृष्टिकोण महत्वपूर्ण कानूनी और नैतिक प्रश्न उठाता है। बौद्धिक संपदा वकील इवान ब्राउन ने वायर्ड को बताया कि इस पद्धति को अपनाने वाली AI लैब एक महत्वपूर्ण जोखिम ले रही हैं, क्योंकि यह संवेदनशील जानकारी को ठीक से साफ़ करने के लिए ठेकेदारों की विश्वसनीयता पर बहुत अधिक निर्भर करती है। गोपनीय डेटा के आकस्मिक या जानबूझकर प्रकटीकरण की संभावना एक बड़ी चिंता है।
वास्तविक दुनिया के डेटा का उपयोग सहमति और गोपनीयता के बारे में भी सवाल उठाता है। जबकि OpenAI ठेकेदारों को व्यक्तिगत रूप से पहचान योग्य जानकारी हटाने का निर्देश देता है, लेकिन डेटा को पूरी तरह से गुमनाम करना हमेशा संभव नहीं हो सकता है, खासकर उन मामलों में जहां काम में अद्वितीय पहचानकर्ता या संवेदनशील विवरण शामिल हैं। इस तरह से उपयोग किए जाने वाले व्यक्तियों के डेटा के निहितार्थ अभी तक पूरी तरह से समझ में नहीं आए हैं।
AI के माध्यम से व्हाइट-कॉलर कार्य को स्वचालित करने का प्रयास बढ़ी हुई दक्षता और लागत बचत की संभावना से प्रेरित है। हालांकि, यह नौकरी विस्थापन और काम की बदलती प्रकृति के बारे में भी चिंताएं बढ़ाता है। जैसे-जैसे AI मॉडल उन कार्यों को करने में अधिक सक्षम होते जाते हैं जो पहले मनुष्यों द्वारा किए जाते थे, इस तकनीकी बदलाव के सामाजिक और आर्थिक निहितार्थों पर विचार करना महत्वपूर्ण है।
वर्तमान में, यह स्पष्ट नहीं है कि OpenAI और हैंडशेक AI अपनी डेटा संग्रह प्रथाओं से संबंधित कानूनी और नैतिक चिंताओं को कैसे दूर कर रहे हैं। कंपनियों ने अभी तक इस मामले पर कोई सार्वजनिक बयान जारी नहीं किया है। AI उद्योग और कार्यबल पर इस दृष्टिकोण का दीर्घकालिक प्रभाव अभी देखा जाना बाकी है।
Discussion
Join the conversation
Be the first to comment