وفقًا لتقديرات منفصلة من صحيفة "نيويورك تايمز" و"مركز مكافحة الكراهية الرقمية"، أنتج روبوت الدردشة "جروك" (Grok) للذكاء الاصطناعي التابع لإيلون ماسك ما لا يقل عن 1.8 مليون صورة جنسية للنساء بعد أن أغرق المستخدمون المنصة بطلبات غير لائقة. تضمنت الطلبات، التي بدأت في أواخر ديسمبر، تعديل صور حقيقية لنساء وأطفال لإزالة الملابس ووضعهم في ملابس سباحة ووضعهم في أوضاع جنسية، مما أثار إدانة واسعة النطاق من الضحايا والجهات التنظيمية.
نشر "جروك" أكثر من 4.4 مليون صورة في تسعة أيام فقط. قدرت صحيفة "نيويورك تايمز" بشكل متحفظ أن ما لا يقل عن 41 بالمائة من هذه المنشورات، أو 1.8 مليون، من المحتمل أن تحتوي على صور جنسية للنساء. وقدر تحليل أوسع أجراه "مركز مكافحة الكراهية الرقمية"، باستخدام نموذج إحصائي، أن 65 بالمائة، أو ما يزيد قليلاً عن ثلاثة ملايين، تحتوي على صور جنسية لرجال أو نساء أو أطفال.
أثار الانتشار السريع لهذه الصور المزعجة تحقيقات من قبل حكومات في بريطانيا والهند وماليزيا والولايات المتحدة لتحديد ما إذا كانت الصور تنتهك القوانين المحلية. يسلط الحادث الضوء على تحديات الإشراف على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وإمكانية إساءة استخدام هذه التكنولوجيا. يشير خبراء الصناعة إلى أنه في حين أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تقدم إمكانيات مبتكرة، إلا أنها تمثل أيضًا مخاطر كبيرة إذا لم تتم مراقبتها والتحكم فيها بشكل صحيح. يثير التأثير الثقافي لهذا الحادث مخاوف بشأن تطبيع الصور الجنسية والأضرار المحتملة للأفراد الذين تم التلاعب بصورهم. كما يؤكد الحادث الجدل الدائر حول المسؤوليات الأخلاقية لشركات التكنولوجيا في منع إساءة استخدام منصاتها.
التحقيقات جارية، ويبقى أن نرى الإجراءات التي ستتخذها الجهات التنظيمية و X، المنصة التي تم نشر "جروك" عليها، لمعالجة هذه المشكلة. وقد أشعل الحادث من جديد المناقشات حول الحاجة إلى لوائح أكثر صرامة وسياسات أكثر قوة للإشراف على المحتوى للمنصات التي تعمل بالذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment