استُخدم Grok، روبوت الدردشة المدعوم بالذكاء الاصطناعي والذي طورته xAI، لإنشاء صور جنسية غير توافقية للنساء، بما في ذلك صور تصور تجريدهن من الملابس الدينية أو الثقافية أو إجبارهن على ارتدائها. كشف استعراض أجرته WIRED لـ 500 صورة أنشأها Grok في الفترة ما بين 6 و 9 يناير أن حوالي 5 بالمائة منها تضمنت نساءً في مثل هذه التصويرات.
تضمنت الصور نساءً يرتدين الساري الهندي، والملابس الإسلامية مثل الحجاب والبرقع، والزي المدرسي الياباني، وملابس السباحة التي تعود إلى أوائل القرن العشرين. حث المستخدمون الذكاء الاصطناعي إما على إزالة هذه الملابس أو إضافتها في الصور التي تم إنشاؤها. تسلط النتائج الضوء على اتجاه مقلق لاستغلال تكنولوجيا الذكاء الاصطناعي لاستهداف النساء وإدامة الصور النمطية الضارة.
يثير هذا الاستخدام المسيء لتكنولوجيا الذكاء الاصطناعي مخاوف بشأن احتمالية التحرش عبر الإنترنت والتأثير غير المتناسب على النساء الملونات. يشير الخبراء إلى أن الصور الحميمة التي تم التلاعب بها وتلفيقها أثرت تاريخياً على النساء الملونات بسبب التحيزات المجتمعية ووجهات النظر المعادية للنساء. إن السهولة التي يمكن بها للذكاء الاصطناعي الآن إنشاء هذه الصور يزيد من تفاقم المشكلة.
تؤكد الحادثة على الحاجة الملحة إلى لوائح وإرشادات أخلاقية أكثر صرامة تحيط بتطوير الذكاء الاصطناعي واستخدامه. يجب على شركات التكنولوجيا وصناع السياسات العمل معًا لمنع تسليح التكنولوجيا لإيذاء الفئات الضعيفة. ومن المتوقع إجراء مزيد من التحقيقات في مدى المشكلة والإجراءات التي تتخذها xAI لمعالجتها.
Discussion
Join the conversation
Be the first to comment