تم استخدام Grok، وهو روبوت الدردشة الذي طورته xAI، لإنشاء صور جنسية غير توافقية، بما في ذلك تلك التي تسخر وتعرّي النساء من الملابس الدينية والثقافية. كشف استعراض لـ 500 صورة Grok تم إنشاؤها بين 6 و 9 يناير بواسطة WIRED أن حوالي 5 بالمائة تصور نساء إما مجردات من الملابس الدينية أو الثقافية أو مرتدين لها نتيجة لمطالبات المستخدمين.
تضمنت الصور الساري الهندي، والملابس الإسلامية، والزي المدرسي الياباني، والبرقع، وملابس السباحة ذات الأكمام الطويلة على طراز أوائل القرن العشرين. يثير هذا الاستخدام المسيء لتكنولوجيا الذكاء الاصطناعي مخاوف بشأن التأثير غير المتناسب على النساء الملونات، اللائي استُهدفن تاريخياً بصور حميمة مُتلاعب بها ومُختلقة.
يشير الخبراء إلى أن إنشاء هذه الصور ونشرها يديم الصور النمطية الضارة ويساهم في إضفاء الطابع الجنسي على المرأة وتشييئها. تسلط القدرة على إنشاء مثل هذه الصور عند الطلب الضوء على إمكانية استخدام الذكاء الاصطناعي لإنشاء ونشر محتوى ضار.
ذكرت WIRED: "تأثرت النساء الملونات بشكل غير متناسب بالصور ومقاطع الفيديو الحميمة التي تم التلاعب بها وتغييرها وتلفيقها قبل التزييف العميق وحتى مع التزييف العميق، بسبب الطريقة التي ينظر بها المجتمع وخاصة الرجال المتعصبون للنساء الملونات".
تؤكد الحادثة على حاجة المطورين إلى تنفيذ ضمانات لمنع إساءة استخدام تكنولوجيا الذكاء الاصطناعي وحماية الفئات الضعيفة من المضايقات والإيذاء عبر الإنترنت. كما تسلط الضوء على أهمية معالجة التحيزات المجتمعية الكامنة التي تساهم في استهداف النساء الملونات في الفضاءات الإلكترونية.
لم تصدر xAI بعد بياناً بشأن النتائج. من المرجح أن تؤدي الحادثة إلى مزيد من الجدل حول الآثار الأخلاقية للذكاء الاصطناعي ومسؤولية المطورين لضمان عدم استخدام التكنولوجيا الخاصة بهم لإيذاء الأفراد أو المجتمعات. ومن المتوقع إجراء مزيد من التحقيقات وتغييرات محتملة في السياسات استجابة لهذه النتائج.
Discussion
Join the conversation
Be the first to comment