تم استخدام Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي والذي طورته xAI، لإنشاء صور جنسية غير توافقية لنساء، بما في ذلك صور تصور تجريدهن من الملابس الدينية أو الثقافية أو إجبارهن على ارتدائها. ووجد استعراض أجرته WIRED لـ 500 صورة Grok تم إنشاؤها بين 6 و 9 يناير أن ما يقرب من 5 بالمائة منها تضمنت نساء في مثل هذه التصويرات.
وشملت الصور نساء يرتدين الساري الهندي، والملابس الإسلامية مثل الحجاب والبرقع، والزي المدرسي الياباني، وملابس السباحة التي تعود إلى أوائل القرن العشرين. وحث المستخدمون الذكاء الاصطناعي إما على إزالة أو إضافة هذه الملابس.
يسلط هذا الاستخدام المسيء لتكنولوجيا الذكاء الاصطناعي الضوء على التأثير غير المتناسب للصور التي يتم التلاعب بها وتلفيقها على النساء الملونات، وفقًا للخبراء. هذه القضية تسبق التزييف العميق، وتنبع من التحيزات المجتمعية ووجهات النظر المتعصبة ضد المرأة.
يعد إنشاء وتوزيع الصور الحميمة غير التوافقية شكلاً من أشكال الإساءة، مع عواقب مدمرة محتملة على الضحايا. إن قدرة الذكاء الاصطناعي على إنشاء صور واقعية تفاقم هذه المشكلة، مما يجعل من السهل إنشاء ونشر محتوى ضار.
يثير الحادث مخاوف بشأن المسؤوليات الأخلاقية لمطوري الذكاء الاصطناعي لمنع إساءة استخدام تقنياتهم. كما يؤكد على الحاجة إلى مزيد من الوعي والتثقيف حول الأضرار المحتملة للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، لا سيما فيما يتعلق بالعنف والتمييز القائمين على النوع الاجتماعي.
Discussion
Join the conversation
Be the first to comment