طلبت Ofcom، وهي هيئة تنظيم الاتصالات في المملكة المتحدة، رسميًا معلومات من X (تويتر سابقًا) بشأن تقارير تفيد بأن نموذج Grok AI الخاص بها يقوم بإنشاء صور جنسية للأطفال. يأتي هذا الطلب في أعقاب تزايد المخاوف بشأن احتمال إساءة استخدام تقنيات الذكاء الاصطناعي التوليدية وقدرتها على إنشاء محتوى ضار.
يركز التحقيق على ادعاءات بأن المستخدمين قد طلبوا من Grok إنتاج صور تصور قاصرين في أوضاع موحية جنسيًا. تثير هذه التقارير تساؤلات جدية حول الضمانات التي وضعتها X لمنع استغلال الذكاء الاصطناعي لأغراض كهذه. يهدف تحقيق Ofcom إلى تحديد مدى المشكلة وما إذا كانت X تتخذ خطوات كافية لمعالجتها.
يتم تدريب نماذج الذكاء الاصطناعي التوليدية مثل Grok على مجموعات بيانات ضخمة من النصوص والصور، مما يسمح لها بإنشاء محتوى جديد بناءً على مطالبات المستخدمين. ومع ذلك، فإن هذه التكنولوجيا تمثل أيضًا مخاطر، حيث يمكن التلاعب بالنماذج لإنشاء تزييفات عميقة، أو نشر معلومات مضللة، أو، كما يُزعم في هذه الحالة، إنشاء مواد إباحية عن الأطفال (CSAM). إن قدرة الذكاء الاصطناعي على إنتاج صور واقعية بسرعة تجعل من الصعب بشكل خاص اكتشاف هذا المحتوى وإزالته.
صرح متحدث باسم Ofcom: "نشعر بقلق عميق بشأن احتمال استخدام الذكاء الاصطناعي لإنشاء محتوى ضار، لا سيما فيما يتعلق بالأطفال". "لقد طلبنا من X تزويدنا بمعلومات حول التقارير المتعلقة بـ Grok والتدابير التي تتخذها لمنع إنشاء ونشر مثل هذه الصور."
أقرت X بطلب Ofcom وذكرت أنها تتعاون مع التحقيق. وتؤكد الشركة أن لديها سياسات صارمة لمنع إنشاء محتوى ضار وأنها تعمل بنشاط على تحسين تدابير السلامة الخاصة بالذكاء الاصطناعي.
قال ممثل عن X: "نحن نأخذ هذه الادعاءات على محمل الجد وملتزمون بضمان عدم استخدام نماذج الذكاء الاصطناعي الخاصة بنا لإنشاء أو الترويج لمحتوى ضار". "نحن نعمل باستمرار على تحسين بروتوكولات السلامة الخاصة بنا والعمل مع الخبراء لتحديد المخاطر المحتملة والتخفيف من حدتها."
يسلط الحادث الضوء على التحدي الأوسع المتمثل في تنظيم تقنيات الذكاء الاصطناعي وضمان استخدامها بمسؤولية. مع ازدياد تطور نماذج الذكاء الاصطناعي، من المهم بشكل متزايد تطوير آليات فعالة لاكتشاف ومنع إساءة استخدامها. وهذا يشمل ليس فقط الحلول التقنية، مثل مرشحات المحتوى وخوارزميات الكشف، ولكن أيضًا الأطر التنظيمية التي تحمّل الشركات المسؤولية عن سلامة أنظمة الذكاء الاصطناعي الخاصة بها.
التحقيق جارٍ، ولدى Ofcom سلطة فرض غرامات كبيرة على X إذا وجدت أن الشركة قد فشلت في حماية المستخدمين بشكل كافٍ من المحتوى الضار. يمكن أن يكون لنتائج التحقيق آثار كبيرة على تنظيم تقنيات الذكاء الاصطناعي في المملكة المتحدة وخارجها. ومن المتوقع أن تنشر الهيئة التنظيمية نتائجها في الأشهر المقبلة.
Discussion
Join the conversation
Be the first to comment