أفادت مؤسسة "مراقبة الإنترنت" (IWF)، وهي مؤسسة خيرية مقرها المملكة المتحدة وتركز على تحديد وإزالة صور الاعتداء الجنسي على الأطفال عبر الإنترنت، بالعثور على صور "يبدو أنها" تم إنشاؤها بواسطة "جروك"، نموذج الذكاء الاصطناعي الذي طورته شركة xAI التابعة لإيلون ماسك. وأبلغت مؤسسة "مراقبة الإنترنت" شركة xAI عن الصور التي تصور مواد الاعتداء الجنسي على الأطفال (CSAM)، وفقًا لبيان صادر عن المنظمة.
يثير هذا الاكتشاف مخاوف كبيرة بشأن إمكانية استغلال نماذج الذكاء الاصطناعي لأغراض خبيثة، وتحديدًا إنشاء ونشر مواد الاعتداء الجنسي على الأطفال. يسلط هذا الحادث الضوء على التحديات التي يواجهها مطورو الذكاء الاصطناعي في منع إساءة استخدام تقنياتهم والمسؤوليات الأخلاقية المرتبطة بنشر أنظمة الذكاء الاصطناعي التوليدية القوية.
"جروك"، الذي تم إطلاقه في نوفمبر 2023، هو نموذج لغوي كبير (LLM) مصمم للإجابة على الأسئلة وإنشاء النصوص. يتميز بأسلوبه الحواري وقدرته على الوصول إلى المعلومات في الوقت الفعلي عبر منصة X (تويتر سابقًا). يتم تدريب النماذج اللغوية الكبيرة مثل "جروك" على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من إنشاء نصوص شبيهة بالنصوص البشرية وترجمة اللغات وإنشاء أنواع مختلفة من المحتوى الإبداعي. ومع ذلك، فإن هذا التدريب يعرضها أيضًا لمحتوى ضار محتمل، والذي يمكن أن ينعكس عن غير قصد في مخرجاتها.
وقال متحدث باسم xAI: "نحن على علم بتقرير مؤسسة "مراقبة الإنترنت" ونتعامل معه بجدية بالغة". "نحن نحقق بنشاط في الأمر وملتزمون بتنفيذ تدابير لمنع توليد محتوى ضار بواسطة "جروك"". ولم تقدم الشركة تفاصيل محددة حول التدابير التي يجري النظر فيها، لكنها أكدت تفانيها في تطوير الذكاء الاصطناعي بشكل مسؤول.
يتضمن دور مؤسسة "مراقبة الإنترنت" فحص الإنترنت بحثًا عن مواد الاعتداء الجنسي على الأطفال والعمل مع مزودي خدمة الإنترنت ومنصات التواصل الاجتماعي لإزالتها. تستخدم المنظمة مزيجًا من الأدوات الآلية والمراجعين البشريين لتحديد وتصنيف المحتوى غير القانوني. يتم إبلاغ وكالات إنفاذ القانون وشركات التكنولوجيا بنتائجها.
يسلط هذا الحادث الضوء على النقاش الأوسع المحيط بتنظيم الذكاء الاصطناعي والحاجة إلى ضمانات قوية لمنع إساءة استخدامه. يجادل الخبراء بأنه يجب على مطوري الذكاء الاصطناعي إعطاء الأولوية للسلامة والاعتبارات الأخلاقية طوال دورة التطوير، بما في ذلك تنفيذ عوامل تصفية المحتوى ومراقبة مخرجات النموذج والتعاون مع منظمات مثل مؤسسة "مراقبة الإنترنت" لتحديد ومعالجة المخاطر المحتملة.
إن اكتشاف مواد الاعتداء الجنسي على الأطفال التي يحتمل أن تكون مولدة بواسطة الذكاء الاصطناعي له أيضًا آثار على صناعة التكنولوجيا ككل. إنه يضغط على مطوري الذكاء الاصطناعي الآخرين لمعالجة المخاطر المرتبطة بنماذجهم بشكل استباقي والاستثمار في البحث والتطوير لتحسين تقنيات الإشراف على المحتوى. يمكن أن يؤدي الحادث أيضًا إلى زيادة التدقيق من قبل المنظمين وصناع السياسات، مما قد يؤدي إلى لوائح أكثر صرامة بشأن تطوير ونشر تقنيات الذكاء الاصطناعي.
التحقيق في الصور التي تم إنشاؤها بواسطة "جروك" لا يزال جاريًا. تعمل مؤسسة "مراقبة الإنترنت" مع xAI لتقديم مزيد من المعلومات ودعم جهود الشركة للتخفيف من خطر وقوع حوادث مستقبلية. يمكن أن يكون لنتائج هذا التحقيق آثار كبيرة على مستقبل سلامة الذكاء الاصطناعي وتنظيمه.
Discussion
Join the conversation
Be the first to comment