أفادت مؤسسة "مراقبة الإنترنت" (IWF)، وهي مؤسسة خيرية مقرها المملكة المتحدة وتركز على تحديد وإزالة صور الاعتداء الجنسي على الأطفال عبر الإنترنت، بالعثور على صور "يبدو أنها" تم إنشاؤها بواسطة "جروك"، نموذج الذكاء الاصطناعي الذي طورته شركة xAI التابعة لإيلون ماسك. صنفت مؤسسة "مراقبة الإنترنت"، التي تعمل مع مزودي خدمة الإنترنت لحظر الوصول إلى المحتوى غير القانوني، الصور على أنها قد تنتهك قوانين حماية الطفل.
يثير هذا الاكتشاف مخاوف كبيرة بشأن إمكانية استغلال نماذج الذكاء الاصطناعي لأغراض خبيثة، وتحديداً إنشاء مواد الاعتداء الجنسي على الأطفال (CSAM). لطالما حذر خبراء في مجال سلامة الذكاء الاصطناعي من هذا الخطر، مؤكدين على الحاجة إلى ضمانات قوية لمنع إساءة استخدام تقنيات الذكاء الاصطناعي التوليدية المتطورة بشكل متزايد.
تم إطلاق "جروك" في نوفمبر 2023، وهو نموذج لغوي كبير (LLM) مصمم لإنشاء النصوص وترجمة اللغات وكتابة أنواع مختلفة من المحتوى الإبداعي والإجابة على الأسئلة بطريقة إعلامية. يتم تدريب النماذج اللغوية الكبيرة على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من تعلم الأنماط والعلاقات في اللغة. هذه القدرة، على الرغم من قوتها، تجعلها أيضًا عرضة لإنتاج محتوى ضار أو غير لائق إذا لم يتم التحكم فيها بشكل صحيح.
وفقًا لمؤسسة "مراقبة الإنترنت"، تم تحديد الصور من خلال عمليات المراقبة الروتينية الخاصة بها. لم تكشف المنظمة عن تفاصيل محددة حول الصور نفسها، مشيرة إلى الحاجة إلى حماية الضحايا المحتملين وتجنب المزيد من توزيع المواد. تم تبادل نتائج مؤسسة "مراقبة الإنترنت" مع وكالات إنفاذ القانون ذات الصلة.
لم تصدر شركة xAI بعد بيانًا رسميًا بشأن تقرير مؤسسة "مراقبة الإنترنت". ومع ذلك، صرح إيلون ماسك سابقًا بأن xAI ملتزمة بتطوير الذكاء الاصطناعي بمسؤولية وأخلاقية. يحدد موقع الشركة على الويب نهجها تجاه سلامة الذكاء الاصطناعي، والذي يتضمن تدابير لمنع إنشاء محتوى ضار.
يسلط الحادث الضوء على تحديات تنظيم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والحاجة إلى البحث والتطوير المستمر لآليات فعالة للكشف والوقاية. تستكشف الصناعة بنشاط تقنيات مختلفة، بما في ذلك وضع علامات مائية على الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي وتطوير خوارزميات لتحديد مواد الاعتداء الجنسي على الأطفال وتصفيتها.
يأتي هذا التطور في وقت يتزايد فيه التدقيق في شركات الذكاء الاصطناعي وجهودها للتخفيف من المخاطر المرتبطة بتقنياتها. تدرس الحكومات والهيئات التنظيمية في جميع أنحاء العالم قوانين ولوائح جديدة لمعالجة الأضرار المحتملة للذكاء الاصطناعي، بما في ذلك إنشاء ونشر مواد الاعتداء الجنسي على الأطفال. على سبيل المثال، يتضمن قانون الذكاء الاصطناعي للاتحاد الأوروبي أحكامًا تهدف تحديدًا إلى منع إساءة استخدام الذكاء الاصطناعي لأغراض غير قانونية.
من المرجح أن تؤدي نتائج مؤسسة "مراقبة الإنترنت" إلى تكثيف النقاش حول التطوير والنشر المسؤولين للذكاء الاصطناعي وتحفيز المزيد من الإجراءات من قبل الحكومات والصناعة ومنظمات المجتمع المدني لحماية الأطفال من الاستغلال عبر الإنترنت. يمثل الحادث تذكيرًا صارخًا بإمكانية استخدام الذكاء الاصطناعي للإضرار والحاجة الملحة إلى ضمانات فعالة.
Discussion
Join the conversation
Be the first to comment