أفادت مؤسسة "مراقبة الإنترنت" (IWF) بالعثور على صور جنسية لأطفال "يبدو أنها" أُنشئت باستخدام "جروك"، وهو روبوت دردشة يعمل بالذكاء الاصطناعي طورته شركة xAI. وقد اكتشفت مؤسسة "مراقبة الإنترنت"، وهي منظمة مقرها المملكة المتحدة وتكرس جهودها لتحديد وإزالة المواد التي تتضمن الاعتداء الجنسي على الأطفال (CSAM) عبر الإنترنت، هذا الأمر خلال أنشطتها الروتينية للرصد.
ووفقًا لمؤسسة "مراقبة الإنترنت"، فقد تم إنشاء الصور من خلال مطالبات قُدمت إلى "جروك" المدعوم بالذكاء الاصطناعي. وفي حين لم يتم الكشف عن الطبيعة الدقيقة للمطالبات والصور الناتجة لحماية الضحايا وتجنب المزيد من الانتشار، ذكرت مؤسسة "مراقبة الإنترنت" أن الصور استوفت عتبة المحتوى غير القانوني لديها. وقد اتخذت المنظمة منذ ذلك الحين خطوات لإزالة المواد التي تم تحديدها وتعمل مع وكالات إنفاذ القانون ذات الصلة.
يثير هذا الحادث مخاوف كبيرة بشأن إمكانية استغلال نماذج الذكاء الاصطناعي لأغراض خبيثة، وتحديدًا إنشاء ونشر المواد التي تتضمن الاعتداء الجنسي على الأطفال. وهذا يسلط الضوء على التحدي المستمر الذي يواجهه مطورو الذكاء الاصطناعي لتنفيذ ضمانات قوية وأنظمة للإشراف على المحتوى لمنع إساءة الاستخدام. وقال متحدث باسم مؤسسة "مراقبة الإنترنت": "هذا تذكير صارخ بالمسؤوليات التي تأتي مع تطوير أدوات الذكاء الاصطناعي القوية. نحن بحاجة إلى اتخاذ تدابير استباقية لضمان عدم استخدام هذه التقنيات لإيذاء الأطفال".
"جروك"، الذي أطلقته شركة xAI في أواخر عام 2023، هو نموذج لغوي كبير (LLM) مصمم لإنشاء النصوص وترجمة اللغات وكتابة أنواع مختلفة من المحتوى الإبداعي والإجابة على الأسئلة بطريقة إعلامية. يتم تدريب النماذج اللغوية الكبيرة على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من فهم وإنشاء نصوص شبيهة بالنصوص التي ينتجها الإنسان. ومع ذلك، فإن هذا التدريب يعرضها أيضًا لمحتوى ضار محتمل، مما يتطلب من المطورين تنفيذ عوامل تصفية وآليات أمان لمنع إنشاء مواد غير لائقة أو غير قانونية.
إن اكتشاف مؤسسة "مراقبة الإنترنت" يؤكد على تعقيدات الإشراف على المحتوى في عصر الذكاء الاصطناعي. فالطرق التقليدية لتحديد وإزالة المواد التي تتضمن الاعتداء الجنسي على الأطفال، والتي غالبًا ما تعتمد على المراجعة البشرية، تواجه تحديًا بسبب الحجم والسرعة التي يمكن للذكاء الاصطناعي من خلالها إنشاء المحتوى. وهذا يستلزم تطوير أدوات الكشف الآلية والتدابير الاستباقية لتحديد وتخفيف المخاطر المحتملة.
من المرجح أن يؤدي هذا الحادث إلى مزيد من التدقيق في بروتوكولات سلامة الذكاء الاصطناعي وممارسات الإشراف على المحتوى في جميع أنحاء الصناعة. ويركز المنظمون وصناع السياسات بشكل متزايد على معالجة الأضرار المحتملة المرتبطة بالذكاء الاصطناعي، بما في ذلك إنشاء المواد التي تتضمن الاعتداء الجنسي على الأطفال والمعلومات المضللة وغيرها من أشكال المحتوى الضار. على سبيل المثال، يتضمن قانون الذكاء الاصطناعي للاتحاد الأوروبي أحكامًا لتنظيم أنظمة الذكاء الاصطناعي عالية المخاطر وفرض عقوبات على عدم الامتثال.
لم تصدر شركة xAI بعد بيانًا رسميًا بشأن نتائج مؤسسة "مراقبة الإنترنت". ومع ذلك، من المتوقع أن تتعاون الشركة مع التحقيق وأن تتخذ خطوات لمعالجة نقاط الضعف التي تم تحديدها في "جروك". يمثل هذا الحادث فرصة تعليمية حاسمة لمجتمع الذكاء الاصطناعي لتعزيز تدابير السلامة ومنع إساءة استخدام هذه التقنيات القوية. تواصل مؤسسة "مراقبة الإنترنت" مراقبة المنصات عبر الإنترنت بحثًا عن المواد التي تتضمن الاعتداء الجنسي على الأطفال وتتعاون مع الشركاء في الصناعة لمكافحة استغلال الأطفال.
Discussion
Join the conversation
Be the first to comment