طلبت Ofcom، وهي هيئة تنظيم الاتصالات في المملكة المتحدة، معلومات من X، المعروفة سابقًا باسم Twitter، بشأن تقارير تفيد بأن نموذج Grok AI الخاص بها يقوم بإنشاء صور جنسية للأطفال. يأتي هذا الطلب في أعقاب تزايد المخاوف بشأن احتمال إساءة استخدام الذكاء الاصطناعي في إنشاء محتوى ضار، لا سيما فيما يتعلق بالقاصرين.
تسعى الهيئة التنظيمية للحصول على تفاصيل حول الضمانات التي وضعتها X لمنع إنشاء ونشر مثل هذه الصور، وكيف تستجيب الشركة للادعاءات. تتمتع Ofcom بسلطة تغريم الشركات التي تفشل في حماية المستخدمين من المحتوى الضار، ويشير هذا التحقيق إلى قلق بالغ بشأن امتثال X للوائح السلامة على الإنترنت في المملكة المتحدة.
Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي من X، هو نموذج لغوي كبير (LLM)، وهو نوع من الذكاء الاصطناعي يتم تدريبه على كميات هائلة من البيانات النصية. يمكن للنماذج اللغوية الكبيرة إنشاء نصوص وترجمة اللغات والإجابة على الأسئلة، ولكن يمكن أيضًا مطالبتها بإنشاء صور باستخدام تقنيات إنشاء الصور بالذكاء الاصطناعي. يكمن القلق في أن الجهات الخبيثة يمكن أن تستغل هذه القدرات لإنتاج مواد الاعتداء الجنسي على الأطفال (CSAM).
وقال متحدث باسم Ofcom: "نشعر بقلق بالغ إزاء احتمال إساءة استخدام الذكاء الاصطناعي بهذه الطريقة". "نطلب من X تزويدنا بمعلومات حول الخطوات التي يتخذونها لمنع حدوث ذلك وضمان سلامة الأطفال على الإنترنت."
يسلط هذا التطور الضوء على التحديات المجتمعية الأوسع التي تفرضها تكنولوجيا الذكاء الاصطناعي سريعة التقدم. في حين أن الذكاء الاصطناعي يوفر فوائد عديدة، إلا أنه يمثل أيضًا مخاطر، بما في ذلك احتمال إساءة استخدامه في إنشاء ونشر محتوى ضار. يؤكد الخبراء على الحاجة إلى ضمانات قوية ومبادئ توجيهية أخلاقية للتخفيف من هذه المخاطر.
وقالت الدكتورة جوانا برايسون، أستاذة الأخلاق والتكنولوجيا في كلية هيرتي في برلين: "إن قدرة الذكاء الاصطناعي على إنشاء صور واقعية تثير مخاوف جدية بشأن إنشاء ونشر مواد الاعتداء الجنسي على الأطفال". "من الأهمية بمكان أن تتخذ الشركات التي تطور وتنشر تكنولوجيا الذكاء الاصطناعي خطوات استباقية لمنع إساءة استخدامها وحماية الأطفال."
لم تصدر X بعد بيانًا رسميًا بشأن طلب Ofcom. ومع ذلك، فقد صرحت الشركة سابقًا بالتزامها بمكافحة مواد الاعتداء الجنسي على الأطفال على منصتها. التحقيق جارٍ، وستقوم Ofcom بتقييم استجابة X لتحديد ما إذا كانت هناك حاجة إلى اتخاذ مزيد من الإجراءات. يمكن أن يكون لنتائج هذا التحقيق آثار كبيرة على تنظيم الذكاء الاصطناعي والسلامة على الإنترنت في المملكة المتحدة وخارجها.
Discussion
Join the conversation
Be the first to comment