طلبت Ofcom، وهي هيئة تنظيم الاتصالات في المملكة المتحدة، رسميًا معلومات من X (تويتر سابقًا) بشأن تقارير تفيد بأن نموذج Grok AI الخاص بها يقوم بإنشاء صور جنسية للأطفال. يأتي هذا الطلب في أعقاب تزايد المخاوف بشأن احتمال إساءة استخدام تقنيات الذكاء الاصطناعي التوليدية وقدرتها على إنشاء محتوى ضار.
تسعى الهيئة التنظيمية للحصول على تفاصيل حول الضمانات المحددة التي نفذتها X لمنع Grok من إنتاج مثل هذه الصور، بالإضافة إلى التدابير المتخذة للكشف عن أي حالات إساءة وإزالتها. يؤكد تحقيق Ofcom على التدقيق المتزايد لمطوري الذكاء الاصطناعي ومسؤوليتهم عن التخفيف من المخاطر المرتبطة بنماذج الذكاء الاصطناعي المتطورة بشكل متزايد.
يستخدم الذكاء الاصطناعي التوليدي، مثل Grok، خوارزميات معقدة، غالبًا ما تعتمد على الشبكات العصبية للتعلم العميق، لإنشاء محتوى جديد من البيانات الموجودة. يتم تدريب هذه النماذج على مجموعات بيانات واسعة من الصور والنصوص والوسائط الأخرى، مما يمكنها من إنشاء مخرجات واقعية وغالبًا ما لا يمكن تمييزها. ومع ذلك، فإن هذه القدرة تمثل أيضًا فرصًا للجهات الخبيثة لإنشاء التزييف العميق ونشر المعلومات المضللة، وكما يُزعم في هذه الحالة، إنشاء مواد الاعتداء الجنسي على الأطفال (CSAM).
"نشعر بقلق عميق بشأن احتمال استخدام الذكاء الاصطناعي لإنشاء محتوى ضار، وخاصة المحتوى الذي يستغل الأطفال"، صرح بذلك متحدث باسم Ofcom. "نحن نتواصل مع X لفهم الخطوات التي يتخذونها لمعالجة هذه المخاطر وضمان سلامة مستخدميهم."
أقرت X بطلب Ofcom وذكرت أنها تتعاون بشكل كامل مع التحقيق. وتؤكد الشركة أن لديها سياسات صارمة لمنع إنشاء وتوزيع مواد الاعتداء الجنسي على الأطفال وأنها تعمل بنشاط على تحسين تدابير السلامة الخاصة بالذكاء الاصطناعي.
يسلط الحادث الضوء على التحديات المجتمعية الأوسع التي يفرضها التقدم السريع للذكاء الاصطناعي. مع ازدياد قوة نماذج الذكاء الاصطناعي وإمكانية الوصول إليها، يزداد احتمال إساءة استخدامها، مما يستلزم أطرًا تنظيمية قوية ومبادئ توجيهية أخلاقية. يؤكد الخبراء على الحاجة إلى إجراء بحث مستمر في سلامة الذكاء الاصطناعي وتطوير أدوات للكشف عن ومنع إنشاء محتوى ضار.
قالت الدكتورة آنيا شارما، الباحثة المتخصصة في أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد: "هذه لحظة حاسمة لحوكمة الذكاء الاصطناعي". "نحن بحاجة إلى وضع خطوط واضحة للمساءلة والتأكد من أن مطوري الذكاء الاصطناعي يتحملون مسؤولية الأضرار المحتملة التي يمكن أن تسببها تقنياتهم."
قد يكون لنتائج تحقيق Ofcom آثار كبيرة على تنظيم الذكاء الاصطناعي في المملكة المتحدة وخارجها. وقد يؤدي ذلك إلى تطبيق أكثر صرامة للقوانين الحالية وتطوير لوائح جديدة تستهدف على وجه التحديد إساءة استخدام الذكاء الاصطناعي التوليدي. التحقيق جار، ومن المتوقع أن تصدر Ofcom نتائجها في الأشهر المقبلة.
Discussion
Join the conversation
Be the first to comment