طلبت Ofcom، وهي هيئة تنظيم الاتصالات في المملكة المتحدة، معلومات من X، المعروفة سابقًا باسم Twitter، بشأن تقارير تفيد بأن نموذج Grok AI الخاص بها يقوم بإنشاء صور جنسية للأطفال. يأتي هذا الطلب في أعقاب تزايد المخاوف بشأن احتمال إساءة استخدام تقنيات الذكاء الاصطناعي التوليدية وقدرتها على إنشاء محتوى ضار.
تسعى الهيئة التنظيمية للحصول على تفاصيل حول الضمانات التي وضعتها X لمنع إنشاء ونشر مثل هذه الصور. يؤكد هذا الاستفسار على التدقيق المتزايد لمطوري الذكاء الاصطناعي ومسؤوليتهم عن التخفيف من المخاطر المرتبطة بتقنياتهم. يسلط إجراء Ofcom الضوء على التوتر بين تعزيز الابتكار في قطاع الذكاء الاصطناعي وحماية الأفراد الضعفاء، وخاصة الأطفال، من الأذى عبر الإنترنت.
يتم تدريب نماذج الذكاء الاصطناعي التوليدية مثل Grok على مجموعات بيانات ضخمة من النصوص والصور، مما يمكنها من إنتاج محتوى جديد بسرعة وواقعية ملحوظة. ومع ذلك، تثير هذه القدرة أيضًا احتمال استغلال الجهات الخبيثة لهذه النماذج لإنشاء تزييفات عميقة أو دعاية أو، كما في هذه الحالة، مواد الاعتداء الجنسي على الأطفال (CSAM). يكمن التحدي التقني في منع الذكاء الاصطناعي من تعلم وتكرار الأنماط الضارة الموجودة في بيانات التدريب، وهي عملية تعرف باسم "محاذاة الذكاء الاصطناعي".
وقال متحدث باسم Ofcom: "نشعر بقلق عميق بشأن احتمال استخدام الذكاء الاصطناعي لإنشاء محتوى ضار، وخاصة المحتوى الذي يستغل الأطفال". "لقد طلبنا من X تزويدنا بمعلومات حول الخطوات التي تتخذها لمنع حدوث ذلك."
لم تصدر X بعد بيانًا عامًا بشأن طلب Ofcom. ومع ذلك، فقد صرحت الشركة سابقًا بالتزامها بمكافحة استغلال الأطفال عبر الإنترنت ونفذت تدابير للكشف عن مواد الاعتداء الجنسي على الأطفال وإزالتها من منصتها. لا تزال فعالية هذه التدابير في سياق المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي غير واضحة.
يثير الحادث أسئلة أوسع حول تنظيم الذكاء الاصطناعي ودور الحكومات في ضمان تطويره ونشره بشكل مسؤول. يدعو بعض الخبراء إلى فرض لوائح أكثر صرامة، بما في ذلك اختبارات السلامة الإلزامية وعمليات التدقيق المستقلة لنماذج الذكاء الاصطناعي. يجادل آخرون بأن اللوائح التقييدية المفرطة يمكن أن تخنق الابتكار وتعيق تطوير تطبيقات الذكاء الاصطناعي المفيدة.
قالت الدكتورة أنيا شارما، باحثة في أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد: "هذه قضية معقدة ولا توجد إجابات سهلة". "نحن بحاجة إلى إيجاد توازن بين حماية المجتمع من الأضرار المحتملة للذكاء الاصطناعي والسماح للازدهار بالابتكار. وهذا يتطلب اتباع نهج متعدد أصحاب المصلحة يضم الحكومات والصناعة والمجتمع المدني."
التحقيق في مزاعم قيام Grok بإنشاء صور جنسية للأطفال لا يزال جاريًا. من المتوقع أن تراجع Ofcom المعلومات المقدمة من X وتحدد ما إذا كانت هناك حاجة إلى اتخاذ مزيد من الإجراءات. يمكن أن يكون لنتائج هذا التحقيق آثار كبيرة على التنظيم المستقبلي للذكاء الاصطناعي في المملكة المتحدة وخارجها. سيتم مراقبة آخر التطورات عن كثب من قبل مطوري الذكاء الاصطناعي وصناع السياسات والمدافعين عن سلامة الأطفال على حد سواء.
Discussion
Join the conversation
Be the first to comment