वायरड की एक रिपोर्ट के अनुसार, OpenAI और प्रशिक्षण डेटा कंपनी हैंडशेक AI कथित तौर पर अपने तीसरे पक्ष के ठेकेदारों से अतीत और वर्तमान नौकरियों के दौरान किए गए वास्तविक काम को अपलोड करने का अनुरोध कर रहे हैं। ऐसा प्रतीत होता है कि यह अनुरोध AI कंपनियों के बीच उच्च-गुणवत्ता वाले प्रशिक्षण डेटा प्राप्त करने की एक व्यापक रणनीति का हिस्सा है, जिसका लक्ष्य उनके मॉडलों को अधिक व्हाइट-कॉलर कार्यों को स्वचालित करने में सक्षम बनाना है।
रिपोर्ट के अनुसार, OpenAI की प्रस्तुति सामग्री ठेकेदारों को पिछली नौकरियों में किए गए कार्यों का विवरण देने और वास्तविक कार्य आउटपुट के उदाहरण अपलोड करने का निर्देश देती है, जैसे कि वर्ड डॉक्यूमेंट, PDF, PowerPoint प्रेजेंटेशन, एक्सेल फाइलें, चित्र और कोड रिपॉजिटरी। कंपनी कथित तौर पर ठेकेदारों को इन फाइलों को अपलोड करने से पहले मालिकाना और व्यक्तिगत रूप से पहचान योग्य जानकारी हटाने की सलाह देती है, और इस उद्देश्य के लिए उन्हें "ChatGPT सुपरस्टार स्क्रबिंग टूल" पर निर्देशित करती है।
यह अभ्यास बौद्धिक संपदा अधिकारों के बारे में चिंताएं बढ़ाता है। बौद्धिक संपदा वकील इवान ब्राउन ने वायर्ड को बताया कि यह दृष्टिकोण AI प्रयोगशालाओं के लिए महत्वपूर्ण जोखिम पैदा करता है, क्योंकि यह संवेदनशील डेटा को ठीक से साफ़ करने के लिए ठेकेदारों की विश्वसनीयता पर बहुत अधिक निर्भर करता है।
वास्तविक दुनिया के डेटा के लिए यह जोर AI मॉडल के प्रदर्शन और क्षमताओं को बेहतर बनाने के लिए उच्च-गुणवत्ता वाले प्रशिक्षण डेटासेट की बढ़ती मांग को दर्शाता है। इन मॉडलों, विशेष रूप से OpenAI की GPT श्रृंखला जैसे बड़े भाषा मॉडल (LLM) को प्रभावी ढंग से सीखने और सामान्यीकरण करने के लिए बड़ी मात्रा में डेटा की आवश्यकता होती है। प्रामाणिक कार्य नमूनों पर प्रशिक्षण द्वारा, AI डेवलपर्स ऐसे मॉडल बनाने की उम्मीद करते हैं जो जटिल कार्यों को अधिक सटीक रूप से दोहरा और स्वचालित कर सकें।
हालांकि, यह रणनीति नैतिक और कानूनी सवाल भी उठाती है। कॉपीराइट या गोपनीय जानकारी का उपयोग, भले ही गुमनाम कर दिया गया हो, संभावित मुकदमों और कंपनी की प्रतिष्ठा को नुकसान पहुंचा सकता है। डेटा में पूर्वाग्रह की संभावना के बारे में भी चिंताएं हैं, जो अगर सावधानीपूर्वक संबोधित नहीं की जाती हैं, तो भेदभावपूर्ण परिणामों को कायम रख सकती हैं।
इस डेटा संग्रह रणनीति के दीर्घकालिक निहितार्थ महत्वपूर्ण हैं। यदि AI मॉडल सफलतापूर्वक व्हाइट-कॉलर नौकरियों की एक विस्तृत श्रृंखला को स्वचालित कर सकते हैं, तो इससे श्रम बाजार में पर्याप्त बदलाव हो सकते हैं, जिससे विभिन्न उद्योगों में श्रमिकों का विस्थापन हो सकता है। इस प्रभाव की सीमा अनिश्चित बनी हुई है, लेकिन विशेषज्ञ AI में विकास और समाज के लिए उनके संभावित परिणामों की बारीकी से निगरानी कर रहे हैं।
OpenAI ने अभी तक रिपोर्ट के बारे में कोई आधिकारिक बयान जारी नहीं किया है। AI नैतिकता और डेटा गोपनीयता पर बहस जारी रहने के कारण कंपनी की कार्रवाइयों की नियामकों और उद्योग पर्यवेक्षकों द्वारा जांच किए जाने की संभावना है।
Discussion
Join the conversation
Be the first to comment