शांत अदालत कक्ष में विक्टोरिया वुडॉल ने टेक दिग्गज गूगल में अपने अनुभव को ध्यान से सुना। यह नवाचार या अभूतपूर्व एल्गोरिदम की कहानी नहीं थी, बल्कि यौन उत्पीड़न के लिए एक प्रबंधक की रिपोर्ट करने के बाद कथित प्रतिशोध का एक स्पष्ट विवरण था। रोजगार न्यायाधिकरण के समक्ष रखी गई उनकी कहानी, कॉर्पोरेट जवाबदेही और कृत्रिम बुद्धिमत्ता के युग में व्हिसलब्लोअर की सुरक्षा के बारे में असहज सवाल उठाती है।
वुडॉल का मामला टेक उद्योग के संभावित अंधेरे पक्ष पर प्रकाश डालता है, जिसकी अक्सर इसकी प्रगतिशील संस्कृति के लिए प्रशंसा की जाती है। उनका दावा है कि एक प्रबंधक की रिपोर्ट करने के बाद, जिसने अपनी स्विंगर जीवनशैली के बारे में डींग मारी और ग्राहकों को अपनी पत्नी की एक नग्न तस्वीर दिखाई, उन्हें "प्रतिशोध के एक अथक अभियान" का सामना करना पड़ा, जिसके कारण अंततः उनकी छंटनी हुई। हालाँकि, Google इन आरोपों से इनकार करता है, यह तर्क देते हुए कि वुडॉल "विक्षिप्त" हो गई और सामान्य व्यावसायिक गतिविधियों की गलत व्याख्या की।
वुडॉल के दावे का मूल Google यूके के भीतर कथित "बॉयज़ क्लब" संस्कृति पर केंद्रित है। उनकी शिकायत में न केवल प्रश्न में शामिल प्रबंधक को शामिल किया गया, जिसे आंतरिक जांच के बाद अंततः बर्खास्त कर दिया गया क्योंकि उसने दो महिला सहकर्मियों को बिना सहमति के छुआ था, बल्कि उसके करीबी दोस्त भी शामिल थे जिन्होंने कथित तौर पर अनुचित व्यवहार देखा और हस्तक्षेप करने में विफल रहे। यह दर्शकों की जिम्मेदारी और विषाक्त कार्य वातावरण को कायम रखने में मिलीभगत की संभावना के बारे में एक महत्वपूर्ण बिंदु उठाता है।
यह मामला मानव संसाधन और कार्यस्थल प्रबंधन में AI की बढ़ती भूमिका पर भी प्रकाश डालता है। जबकि AI-संचालित उपकरणों को अक्सर भर्ती और पदोन्नति में पूर्वाग्रह का पता लगाने और निष्पक्षता को बढ़ावा देने की क्षमता के लिए सराहा जाता है, वे अपने रचनाकारों और प्रशिक्षित किए गए डेटा के पूर्वाग्रहों से प्रतिरक्षा नहीं रखते हैं। यदि एक AI प्रणाली को ऐसे डेटा पर प्रशिक्षित किया जाता है जो मौजूदा असमानताओं को दर्शाता है, तो यह अनजाने में उन असमानताओं को कायम रख सकता है, जिससे भेदभावपूर्ण परिणाम हो सकते हैं।
ऑक्सफोर्ड विश्वविद्यालय में AI नैतिकता की एक प्रमुख विशेषज्ञ डॉ. अन्या शर्मा बताती हैं, "AI उतना ही अच्छा है जितना कि उसे खिलाया जाने वाला डेटा। "यदि डेटा एक पक्षपाती वास्तविकता को दर्शाता है, तो AI उस पूर्वाग्रह को बढ़ा देगा। यह विशेष रूप से HR जैसे क्षेत्रों में चिंताजनक है, जहाँ लोगों के करियर और आजीविका के बारे में निर्णय लिए जा रहे हैं।"
इसके अलावा, कर्मचारी संचार और व्यवहार की निगरानी में AI के उपयोग से गोपनीयता संबंधी चिंताएँ बढ़ जाती हैं। जबकि कंपनियाँ तर्क दे सकती हैं कि इस तरह की निगरानी उत्पीड़न को रोकने और अनुपालन सुनिश्चित करने के लिए आवश्यक है, यह एक भयावह प्रभाव भी पैदा कर सकती है, जिससे कर्मचारी गलत काम के खिलाफ बोलने से हतोत्साहित हो सकते हैं क्योंकि उन्हें दंडित किए जाने का डर है।
रोजगार कानून में विशेषज्ञता रखने वाले कानूनी विशेषज्ञ डेविड मिलर चेतावनी देते हैं, "एक वास्तविक जोखिम है कि AI का उपयोग व्हिसलब्लोअर को चुप कराने के लिए किया जा सकता है।" "यदि कोई कंपनी कर्मचारी संचार की निगरानी के लिए AI का उपयोग कर रही है और संभावित असंतुष्टों की पहचान कर रही है, तो वह उस जानकारी का उपयोग उन लोगों को लक्षित करने और प्रतिशोध लेने के लिए कर सकती है जो बोलते हैं।"
Google का मामला कार्यस्थल में AI के उपयोग में अधिक पारदर्शिता और जवाबदेही की आवश्यकता पर प्रकाश डालता है। कंपनियों को यह सुनिश्चित करना चाहिए कि उनकी AI प्रणालियाँ निष्पक्ष, निष्पक्ष हों और कर्मचारियों के अधिकारों का उल्लंघन न करें। उन्हें एक ऐसी संस्कृति भी बनानी चाहिए जो कर्मचारियों को प्रतिशोध के डर के बिना गलत काम की रिपोर्ट करने के लिए प्रोत्साहित करे।
जैसे-जैसे AI कार्यस्थल को बदल रहा है, यह याद रखना महत्वपूर्ण है कि प्रौद्योगिकी मानवीय निर्णय और नैतिक नेतृत्व का विकल्प नहीं है। कंपनियों को सम्मान, समावेशिता और जवाबदेही की संस्कृति बनाने को प्राथमिकता देनी चाहिए, जहाँ कर्मचारी अन्याय के खिलाफ बोलने में सुरक्षित महसूस करें। काम का भविष्य इस पर निर्भर करता है।
Discussion
Join the conversation
Be the first to comment