طلبت Ofcom، وهي هيئة تنظيم الاتصالات في المملكة المتحدة، معلومات من X (تويتر سابقًا) بشأن تقارير تفيد بأن نموذج Grok AI الخاص بها يقوم بإنشاء صور جنسية للأطفال. يأتي هذا الطلب في أعقاب تزايد المخاوف بشأن احتمال إساءة استخدام الذكاء الاصطناعي التوليدي وتداعياته على سلامة الأطفال.
تسعى الهيئة التنظيمية للحصول على تفاصيل حول الضمانات التي وضعتها X لمنع إنشاء ونشر مثل هذه الصور. ويشمل ذلك معلومات حول بيانات التدريب المستخدمة لتطوير Grok، وآليات التصفية والكشف المستخدمة لتحديد المحتوى غير اللائق وإزالته، وعمليات الإبلاغ عن شكاوى المستخدمين ومعالجتها.
يتم تدريب نماذج الذكاء الاصطناعي التوليدي مثل Grok على مجموعات بيانات ضخمة من النصوص والصور، مما يمكنها من إنشاء محتوى جديد يمكن أن يحاكي سيناريوهات العالم الحقيقي. ومع ذلك، تثير هذه القدرة أيضًا مخاوف بشأن احتمال استغلال جهات خبيثة لهذه النماذج لأغراض ضارة، بما في ذلك إنشاء مواد الاعتداء الجنسي على الأطفال (CSAM). تتضمن عملية تدريب هذه النماذج خوارزميات معقدة تتعلم الأنماط والعلاقات داخل البيانات. إذا كانت بيانات التدريب تحتوي على محتوى متحيز أو غير لائق، فقد يعيد النموذج إنتاج أو تضخيم هذه التحيزات في مخرجاته عن غير قصد.
صرح متحدث باسم Ofcom قائلاً: "نشعر بقلق عميق بشأن احتمال إساءة استخدام الذكاء الاصطناعي لإنشاء محتوى ضار، لا سيما المحتوى الذي يستغل الأطفال". "نحن نتواصل مع X لفهم الخطوات التي يتخذونها للتخفيف من هذه المخاطر وضمان سلامة مستخدميهم."
أقرت X بطلب Ofcom وذكرت أنها تتعاون بشكل كامل مع التحقيق. وتؤكد الشركة أن لديها سياسات صارمة لمنع إنشاء وتوزيع مواد الاعتداء الجنسي على الأطفال وأنها ملتزمة باستخدام الذكاء الاصطناعي بمسؤولية. وذكروا أيضًا أنهم يعملون باستمرار على تحسين آليات الكشف والوقاية الخاصة بهم.
يسلط الحادث الضوء على التحديات الأوسع لتنظيم الذكاء الاصطناعي وضمان تطويره ونشره بشكل أخلاقي. يجادل الخبراء بأن هناك حاجة إلى نهج متعدد الأوجه، يتضمن التعاون بين الهيئات التنظيمية وشركات التكنولوجيا ومنظمات المجتمع المدني. ويشمل ذلك تطوير ضمانات فنية قوية، ووضع أطر قانونية واضحة، وزيادة الوعي العام حول مخاطر وفوائد الذكاء الاصطناعي.
تشمل أحدث التطورات في تنظيم الذكاء الاصطناعي المناقشات الجارية على المستوى الدولي، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي يهدف إلى وضع إطار قانوني شامل لتطوير الذكاء الاصطناعي واستخدامه. من المرجح أن يكون لهذه اللوائح تأثير كبير على كيفية تطوير الذكاء الاصطناعي ونشره على مستوى العالم. يعد تحقيق Ofcom في نموذج Grok AI الخاص بـ X جزءًا من جهد أوسع لمعالجة الأضرار المحتملة للذكاء الاصطناعي وضمان استخدامه بطريقة تفيد المجتمع. يمكن أن يكون لنتائج التحقيق آثار على مطوري ومنصات الذكاء الاصطناعي الآخرين، مما يضع سابقة لكيفية توقع معالجتهم للمخاطر المرتبطة بالذكاء الاصطناعي التوليدي.
Discussion
Join the conversation
Be the first to comment