في قاعة المحكمة الهادئة، استمع الجميع باهتمام بالغ إلى فيكتوريا وودال وهي تروي تجربتها في شركة التكنولوجيا العملاقة جوجل. لم تكن قصتها عن الابتكار أو الخوارزميات الرائدة، بل كانت سردًا قاسيًا لمزاعم الانتقام بعد أن أبلغت عن تحرش جنسي من قبل أحد المديرين. قصتها، التي كُشِف عنها أمام محكمة العمل، تثير أسئلة غير مريحة حول مساءلة الشركات وحماية المبلغين عن المخالفات في عصر الذكاء الاصطناعي.
تسلط قضية وودال الضوء على الجانب المظلم المحتمل لصناعة التكنولوجيا، التي غالبًا ما تُشاد بثقافتها التقدمية. وتدعي أنها بعد الإبلاغ عن مدير تفاخر بأسلوب حياته المنفتح جنسيًا وعرض صورة عارية لزوجته على العملاء، واجهت "حملة انتقامية لا هوادة فيها" أدت في النهاية إلى فصلها من العمل. ومع ذلك، تنفي جوجل هذه الادعاءات، بحجة أن وودال أصبحت "مذعورة" وأساءت تفسير الأنشطة التجارية العادية.
جوهر مطالبة وودال يتمحور حول ثقافة "نادي الأولاد" المزعومة داخل جوجل في المملكة المتحدة. لم تتهم شكواها المدير المعني فحسب، والذي تم فصله في النهاية بعد أن وجد تحقيق داخلي أنه لمس زميلتين دون موافقة، بل اتهمت أيضًا أصدقائه المقربين الذين زُعم أنهم شهدوا السلوك غير اللائق ولم يتدخلوا. وهذا يثير نقطة حاسمة حول مسؤولية المتفرجين واحتمال التواطؤ في إدامة بيئات العمل السامة.
تتطرق القضية أيضًا إلى الدور المتزايد للذكاء الاصطناعي في الموارد البشرية وإدارة مكان العمل. في حين أن الأدوات التي تعمل بالذكاء الاصطناعي غالبًا ما يتم الترويج لها لقدرتها على اكتشاف التحيز وتعزيز العدالة في التوظيف والترقيات، إلا أنها ليست محصنة ضد تحيزات منشئيها والبيانات التي يتم تدريبها عليها. إذا تم تدريب نظام الذكاء الاصطناعي على بيانات تعكس أوجه عدم المساواة القائمة، فإنه يمكن أن يديم أوجه عدم المساواة هذه عن غير قصد، مما يؤدي إلى نتائج تمييزية.
"الذكاء الاصطناعي جيد فقط بقدر جودة البيانات التي يتم تغذيته بها"، كما توضح الدكتورة آنيا شارما، الخبيرة البارزة في أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد. "إذا كانت البيانات تعكس واقعًا متحيزًا، فسوف يضخم الذكاء الاصطناعي هذا التحيز. وهذا يثير القلق بشكل خاص في مجالات مثل الموارد البشرية، حيث يتم اتخاذ قرارات بشأن وظائف الناس وسبل عيشهم."
علاوة على ذلك، فإن استخدام الذكاء الاصطناعي في مراقبة اتصالات الموظفين وسلوكهم يثير مخاوف تتعلق بالخصوصية. في حين أن الشركات قد تجادل بأن هذه المراقبة ضرورية لمنع التحرش وضمان الامتثال، إلا أنها يمكن أن تخلق أيضًا تأثيرًا مخيفًا، مما يثني الموظفين عن التحدث علنًا ضد المخالفات خوفًا من التعرض للعقاب.
"هناك خطر حقيقي من أن يتم استخدام الذكاء الاصطناعي لإسكات المبلغين عن المخالفات"، كما يحذر ديفيد ميلر، وهو خبير قانوني متخصص في قانون العمل. "إذا كانت الشركة تستخدم الذكاء الاصطناعي لمراقبة اتصالات الموظفين وتحديد المعارضين المحتملين، فيمكنها استخدام هذه المعلومات لاستهداف أولئك الذين يتحدثون علنًا والانتقام منهم."
تسلط قضية جوجل الضوء على الحاجة إلى مزيد من الشفافية والمساءلة في استخدام الذكاء الاصطناعي في مكان العمل. يجب على الشركات التأكد من أن أنظمة الذكاء الاصطناعي الخاصة بها عادلة وغير متحيزة ولا تنتهك حقوق الموظفين. يجب عليهم أيضًا إنشاء ثقافة تشجع الموظفين على الإبلاغ عن المخالفات دون خوف من الانتقام.
مع استمرار الذكاء الاصطناعي في تغيير مكان العمل، من الضروري أن نتذكر أن التكنولوجيا ليست بديلاً عن الحكم البشري والقيادة الأخلاقية. يجب على الشركات إعطاء الأولوية لإنشاء ثقافة احترام وشمولية ومساءلة، حيث يشعر الموظفون بالأمان للتحدث علنًا ضد الظلم. مستقبل العمل يعتمد على ذلك.
Discussion
Join the conversation
Be the first to comment