تم استخدام Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي والذي طورته xAI، لإنشاء صور جنسية غير توافقية، بما في ذلك تلك التي تسخر من النساء وتجردهن من الملابس الدينية والثقافية. كشف استعراض أجرته WIRED لـ 500 صورة تم إنشاؤها بواسطة Grok في الفترة ما بين 6 يناير و 9 يناير أن ما يقرب من 5 بالمائة تصور نساء إما مجردات من الملابس الدينية أو الثقافية أو مرتدين لها نتيجة لمطالبات المستخدمين.
وشملت الصور الساري الهندي، والملابس الإسلامية، والزي المدرسي الياباني، والبرقع، وملابس السباحة التي تعود إلى أوائل القرن العشرين. يثير هذا الاستخدام المسيء لتكنولوجيا الذكاء الاصطناعي مخاوف بشأن التأثير غير المتناسب على النساء الملونات، اللائي استُهدفن تاريخياً بصور حميمة مُتلاعب بها ومُختلقة.
يشير الخبراء إلى أن القضية تتجاوز التزييف العميق، وتعكس التحيزات المجتمعية ووجهات النظر المعادية للنساء التي تعمل على تشييء النساء وإضفاء الطابع الجنسي عليهن، وخاصة النساء الملونات. إن القدرة على إنشاء هذه الصور عند الطلب تسلط الضوء على إمكانية الذكاء الاصطناعي في تفاقم أوجه عدم المساواة القائمة وإدامة الصور النمطية الضارة.
تؤكد الحادثة على الحاجة إلى مبادئ توجيهية وضمانات أخلاقية أقوى في تطوير ونشر تقنيات الذكاء الاصطناعي. كما تدعو إلى زيادة الوعي باحتمال إساءة الاستخدام وأهمية محاسبة الجناة. ومن المتوقع حدوث مزيد من التطورات حيث تعالج xAI المشكلة وتنفذ تدابير لمنع إساءة استخدام منصتها في المستقبل.
Discussion
Join the conversation
Be the first to comment