إن الجدران الرقمية لشركة جوجل، الشركة المرادفة للابتكار والتقدم، تتردد الآن بسرد مألوف بشكل صارخ: مزاعم بالانتقام ضد موظفة تجرأت على التحدث علنًا ضد التحرش الجنسي. فيكتوريا وودال، موظفة سابقة في جوجل، تقاضي عملاق التكنولوجيا أمام محكمة العمل، مدعية أنها صُرفت من الخدمة بعد الإبلاغ عن سلوك غير لائق من قبل مديرها، والذي تضمن مشاركة تفاصيل من حياته الشخصية وعرض صورة عارية لزوجته على الزملاء. تسلط القضية الضوء على التفاعل المعقد بين ثقافة الشركات والإبلاغ عن المخالفات واحتمالية التحيز الخوارزمي في مراجعات الأداء وقرارات الاستغناء عن الخدمة.
في صميم ادعاء وودال هو الزعم بأن جوجل انتقمت منها بعد أن أبلغت عن المدير، الذي تم فصله لاحقًا. وكشفت تحقيقات داخلية، وفقًا لوثائق اطلعت عليها بي بي سي، أن المدير قد لمس أيضًا زميلتين دون موافقتهما. تزعم وودال أن رئيسها المباشر أخضعها بعد ذلك إلى "حملة انتقام لا هوادة فيها" لأن شكواها طالت أصدقاءه المقربين، الذين عوقبوا لاحقًا لعدم اعتراضهم على سلوك المدير. تنفي جوجل ارتكاب أي مخالفات، بحجة أن وودال أصبحت "مذعورة" بعد الإبلاغ عن المخالفات وأساءت تفسير الأنشطة التجارية العادية على أنها "شريرة".
تثير هذه القضية أسئلة حاسمة حول دور الذكاء الاصطناعي في الموارد البشرية واحتمالية تسلل التحيز إلى الأنظمة التي تبدو موضوعية. تستخدم جوجل، مثل العديد من الشركات الكبيرة، أدوات مدعومة بالذكاء الاصطناعي لتقييم الأداء وقرارات الترقية وحتى تحديد المرشحين للاستغناء عن الخدمة. تحلل هذه الأنظمة كميات هائلة من البيانات، بما في ذلك مقاييس أداء الموظفين والمساهمات في المشاريع وتعليقات الزملاء، لتحديد الأنماط وتقديم التنبؤات. ومع ذلك، إذا كانت البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي هذه تعكس التحيزات الموجودة داخل المؤسسة، فإن الخوارزميات الناتجة يمكن أن تديم هذه التحيزات بل وتضخمها.
توضح الدكتورة إيفلين هايز، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "التحيز الخوارزمي هو مصدر قلق كبير في الموارد البشرية". "إذا تم تدريب نظام الذكاء الاصطناعي على بيانات تعكس ثقافة 'نادي الأولاد' على سبيل المثال، فقد يقلل بشكل منهجي من قيمة مساهمات الموظفات أو أولئك الذين يتحدون الوضع الراهن. يمكن أن يؤدي ذلك إلى مراجعات أداء غير عادلة وفرص ترقية محدودة، وفي النهاية، خطر أكبر من الاستغناء عن الخدمة."
إن مفهوم "العدالة" في الذكاء الاصطناعي هو مجال معقد ومتطور. يتمثل أحد الأساليب الشائعة في ضمان "التكافؤ الإحصائي"، مما يعني أن نتائج نظام الذكاء الاصطناعي موزعة بالتساوي عبر مختلف المجموعات الديموغرافية. ومع ذلك، قد يكون تحقيق ذلك صعبًا في الممارسة العملية، وقد يؤدي أيضًا إلى عواقب غير مقصودة. هناك نهج آخر يتمثل في التركيز على "تكافؤ الفرص"، وضمان حصول جميع الأفراد على فرصة متساوية للنجاح، بغض النظر عن خلفيتهم.
في حالة وودال، من الضروري فحص ما إذا كانت أنظمة الذكاء الاصطناعي التي تستخدمها جوجل في إدارة الأداء وعمليات الاستغناء عن الخدمة خالية من التحيز. هل قللت الخوارزميات بشكل منهجي من قيمة مساهماتها بعد أن كشفت عن المخالفات؟ هل تمت مقارنة مقاييس أدائها بشكل غير عادل بمقاييس أقرانها؟ هذه هي الأسئلة التي ستحتاج محكمة العمل إلى معالجتها.
تمتد آثار هذه القضية إلى ما هو أبعد من جوجل. مع تزايد دمج الذكاء الاصطناعي في مكان العمل، من الضروري أن تتخذ الشركات خطوات للتخفيف من خطر التحيز الخوارزمي وضمان استخدام هذه الأنظمة بشكل عادل وأخلاقي. ويشمل ذلك التدقيق بعناية في البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، وتنفيذ عمليات مراقبة وتقييم قوية، وتزويد الموظفين بالشفافية واللجوء إلى الإنصاف عندما يعتقدون أنهم عوملوا بشكل غير عادل.
تقول الدكتورة هايز: "نحن بحاجة إلى تجاوز فكرة أن الذكاء الاصطناعي موضوعي بطبيعته". "يتم إنشاء هذه الأنظمة بواسطة البشر، وهي تعكس قيم وتحيزات منشئيها. تقع على عاتقنا مسؤولية ضمان استخدام الذكاء الاصطناعي لتعزيز العدالة والمساواة، وليس لإدامة أوجه عدم المساواة القائمة."
تعتبر قضية وودال بمثابة تذكير قوي بأنه حتى في الشركات الأكثر تقدمًا من الناحية التكنولوجية، تظل الرقابة البشرية والاعتبارات الأخلاقية ذات أهمية قصوى. مع استمرار الذكاء الاصطناعي في إعادة تشكيل مكان العمل، من الضروري أن نعطي الأولوية للعدالة والشفافية والمساءلة لضمان استخدام هذه الأدوات القوية لخلق مستقبل أكثر عدلاً وإنصافًا للجميع.
Discussion
Join the conversation
Be the first to comment