गूगल की डिजिटल दीवारें, जो नवाचार और प्रगति का पर्याय है, अब एक परिचित कहानी से गूंज रही हैं: एक कर्मचारी के खिलाफ कथित प्रतिशोध जिसने यौन उत्पीड़न के खिलाफ बोलने की हिम्मत की। गूगल की पूर्व कर्मचारी विक्टोरिया वुडॉल, तकनीकी दिग्गज को एक रोजगार न्यायाधिकरण में ले जा रही हैं, जिसमें दावा किया गया है कि एक प्रबंधक के अनुचित व्यवहार की रिपोर्ट करने के बाद उन्हें अनावश्यक बना दिया गया था, जिसमें उसके निजी जीवन के विवरण साझा करना और सहकर्मियों को अपनी पत्नी की नग्न तस्वीर दिखाना शामिल था। यह मामला कॉर्पोरेट संस्कृति, व्हिसलब्लोइंग और प्रदर्शन समीक्षाओं और अनावश्यकता निर्णयों में एल्गोरिथम पूर्वाग्रह की क्षमता के बीच जटिल अंतःक्रिया पर प्रकाश डालता है।
वुडॉल के दावे के केंद्र में यह आरोप है कि गूगल ने प्रबंधक की रिपोर्ट करने के बाद उसके खिलाफ प्रतिशोध लिया, जिसे बाद में निकाल दिया गया। बीबीसी द्वारा देखे गए दस्तावेजों के अनुसार, आंतरिक जांच से पता चला कि प्रबंधक ने दो महिला सहकर्मियों को उनकी सहमति के बिना छुआ भी था। वुडॉल का आरोप है कि उसके अपने बॉस ने फिर उसे "प्रतिशोध के एक अथक अभियान" के अधीन कर दिया क्योंकि उसकी शिकायत में उसके करीबी दोस्त शामिल थे, जिन्हें बाद में प्रबंधक के व्यवहार को चुनौती देने में विफल रहने के लिए अनुशासित किया गया था। गूगल किसी भी गलत काम से इनकार करता है, यह तर्क देते हुए कि व्हिसलब्लोइंग के बाद वुडॉल "विक्षिप्त" हो गई और सामान्य व्यावसायिक गतिविधियों को "भयानक" के रूप में गलत समझा।
यह मामला मानव संसाधनों में एआई की भूमिका और प्रतीत होने वाली उद्देश्य प्रणालियों में पूर्वाग्रह के प्रवेश की क्षमता के बारे में महत्वपूर्ण सवाल उठाता है। गूगल, कई बड़े निगमों की तरह, प्रदर्शन मूल्यांकन, पदोन्नति निर्णयों और यहां तक कि अनावश्यकता के लिए उम्मीदवारों की पहचान करने के लिए एआई-संचालित उपकरणों का उपयोग करता है। ये सिस्टम कर्मचारी प्रदर्शन मेट्रिक्स, परियोजना योगदान और सहकर्मी प्रतिक्रिया सहित डेटा की विशाल मात्रा का विश्लेषण करते हैं, ताकि पैटर्न की पहचान की जा सके और भविष्यवाणियां की जा सकें। हालांकि, अगर इन एआई मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा संगठन के भीतर मौजूदा पूर्वाग्रहों को दर्शाता है, तो परिणामी एल्गोरिदम उन पूर्वाग्रहों को कायम रख सकते हैं और यहां तक कि बढ़ा भी सकते हैं।
स्टैनफोर्ड विश्वविद्यालय में एआई नैतिकता के प्रोफेसर डॉ. एवलिन हेस बताती हैं, "एचआर में एल्गोरिथम पूर्वाग्रह एक महत्वपूर्ण चिंता का विषय है।" "उदाहरण के लिए, यदि एक एआई प्रणाली को उस डेटा पर प्रशिक्षित किया जाता है जो 'बॉयज़ क्लब' संस्कृति को दर्शाता है, तो यह व्यवस्थित रूप से महिला कर्मचारियों या यथास्थिति को चुनौती देने वालों के योगदान को कम आंक सकता है। इससे अनुचित प्रदर्शन समीक्षाएं, सीमित पदोन्नति के अवसर और अंततः, अनावश्यकता का अधिक जोखिम हो सकता है।"
एआई में "निष्पक्षता" की अवधारणा एक जटिल और विकसित हो रहा क्षेत्र है। एक सामान्य दृष्टिकोण "सांख्यिकीय समानता" सुनिश्चित करना है, जिसका अर्थ है कि एआई प्रणाली के परिणाम विभिन्न जनसांख्यिकीय समूहों में समान रूप से वितरित किए जाते हैं। हालांकि, इसे व्यवहार में प्राप्त करना मुश्किल हो सकता है, और यहां तक कि अनपेक्षित परिणाम भी हो सकते हैं। एक अन्य दृष्टिकोण "समान अवसर" पर ध्यान केंद्रित करना है, यह सुनिश्चित करना कि सभी व्यक्तियों को उनकी पृष्ठभूमि की परवाह किए बिना सफल होने का समान अवसर मिले।
वुडॉल के मामले में, यह जांचना महत्वपूर्ण है कि क्या गूगल द्वारा अपने प्रदर्शन प्रबंधन और अनावश्यकता प्रक्रियाओं में उपयोग किए जाने वाले एआई सिस्टम पूर्वाग्रह से मुक्त थे। क्या एल्गोरिदम ने व्हिसल बजाने के बाद व्यवस्थित रूप से उसके योगदान को कम आंका? क्या उसके प्रदर्शन मेट्रिक्स की उसके साथियों की तुलना में अनुचित तरीके से तुलना की गई? ये वे प्रश्न हैं जिन्हें रोजगार न्यायाधिकरण को संबोधित करने की आवश्यकता होगी।
इस मामले के निहितार्थ गूगल से कहीं आगे तक फैले हुए हैं। जैसे-जैसे एआई कार्यस्थल में तेजी से एकीकृत होता जा रहा है, यह आवश्यक है कि कंपनियां एल्गोरिथम पूर्वाग्रह के जोखिम को कम करने के लिए कदम उठाएं और यह सुनिश्चित करें कि इन प्रणालियों का उपयोग निष्पक्ष और नैतिक रूप से किया जाए। इसमें एआई मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डेटा का सावधानीपूर्वक ऑडिट करना, मजबूत निगरानी और मूल्यांकन प्रक्रियाओं को लागू करना और कर्मचारियों को पारदर्शिता और सहारा प्रदान करना शामिल है जब उन्हें लगता है कि उनके साथ अनुचित व्यवहार किया गया है।
डॉ. हेस कहते हैं, "हमें इस विचार से आगे बढ़ने की जरूरत है कि एआई स्वाभाविक रूप से उद्देश्यपूर्ण है।" "ये सिस्टम मनुष्यों द्वारा बनाए गए हैं, और वे अपने रचनाकारों के मूल्यों और पूर्वाग्रहों को दर्शाते हैं। यह हमारी जिम्मेदारी है कि हम यह सुनिश्चित करें कि एआई का उपयोग निष्पक्षता और समानता को बढ़ावा देने के लिए किया जाए, न कि मौजूदा असमानताओं को कायम रखने के लिए।"
वुडॉल का मामला एक शक्तिशाली अनुस्मारक के रूप में कार्य करता है कि सबसे तकनीकी रूप से उन्नत कंपनियों में भी, मानव निरीक्षण और नैतिक विचार सर्वोपरि हैं। जैसे-जैसे एआई कार्यस्थल को नया आकार देना जारी रखता है, यह महत्वपूर्ण है कि हम निष्पक्षता, पारदर्शिता और जवाबदेही को प्राथमिकता दें ताकि यह सुनिश्चित किया जा सके कि इन शक्तिशाली उपकरणों का उपयोग सभी के लिए एक अधिक न्यायपूर्ण और समान भविष्य बनाने के लिए किया जाए।
Discussion
Join the conversation
Be the first to comment