أفادت مؤسسة "مراقبة الإنترنت" (IWF) بالعثور على صور جنسية لأطفال تعتقد أنها أُنشئت باستخدام "جروك"، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي الذي طورته شركة xAI. وقد اكتشفت المؤسسة، وهي منظمة مقرها المملكة المتحدة وتكرس جهودها لتحديد وإزالة المواد الإباحية التي تتضمن الاعتداء الجنسي على الأطفال (CSAM) عبر الإنترنت، هذا الاكتشاف خلال أنشطتها الروتينية للرصد.
ووفقًا لمؤسسة "مراقبة الإنترنت"، يبدو أن الصور "أُنشئت" بواسطة "جروك". ولم تنشر المنظمة تفاصيل محددة حول الصور نفسها، مشيرة إلى الحاجة إلى تجنب المزيد من توزيع المواد الإباحية التي تتضمن الاعتداء الجنسي على الأطفال. وأكد كريس فالانس من مؤسسة "مراقبة الإنترنت" هذا الاكتشاف، مشيرًا إلى أن المنظمة تعمل مع شركة xAI لمعالجة هذه المشكلة.
يثير هذا الاكتشاف مخاوف كبيرة بشأن إمكانية استغلال نماذج الذكاء الاصطناعي لأغراض خبيثة، وتحديدًا إنشاء المواد الإباحية التي تتضمن الاعتداء الجنسي على الأطفال. لقد تطورت تقنية إنشاء الصور بالذكاء الاصطناعي بسرعة في السنوات الأخيرة، مما يسمح للمستخدمين بإنشاء صور واقعية للغاية من مطالبات نصية. هذه القدرة، في حين أنها توفر إمكانات إبداعية، فإنها تمثل أيضًا خطرًا من سوء الاستخدام. لطالما حذر الخبراء في هذا المجال من إمكانية استخدام نماذج الذكاء الاصطناعي لإنشاء المواد الإباحية التي تتضمن الاعتداء الجنسي على الأطفال، ويبدو أن هذا الحادث هو تحقيق لتلك المخاوف.
"جروك" هو نموذج لغوي كبير (LLM) طورته شركة xAI، وهي شركة الذكاء الاصطناعي التابعة لإيلون ماسك. يتم تدريب النماذج اللغوية الكبيرة على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من إنشاء نصوص شبيهة بالنصوص البشرية، وترجمة اللغات، والإجابة على الأسئلة. تم تصميم "جروك" ليكون حواريًا وفكاهيًا، وهو متاح حاليًا للمشتركين في X Premium+. إن بنية النموذج وبيانات التدريب الخاصة به مملوكة للشركة، ولكن من المفهوم أنها تستند إلى شبكات المحولات، وهي بنية شائعة للنماذج اللغوية الكبيرة.
يسلط هذا الحادث الضوء على التحديات التي يواجهها مطورو الذكاء الاصطناعي في منع إساءة استخدام تقنيتهم. يتم عادةً تنفيذ تدابير حماية مثل عوامل تصفية المحتوى وأنظمة الإشراف لمنع إنشاء محتوى ضار. ومع ذلك، قد يجد المستخدمون المصممون طرقًا للتحايل على تدابير الحماية هذه، على سبيل المثال، باستخدام مطالبات مصممة بعناية تتجاوز عوامل التصفية.
لم تصدر شركة xAI بعد بيانًا عامًا بشأن نتائج مؤسسة "مراقبة الإنترنت". ومن المتوقع أن تحقق الشركة في الحادث وتتخذ خطوات لتحسين سلامة "جروك". وقد يشمل ذلك تحسين عوامل تصفية المحتوى الخاصة بالنموذج، وتحسين قدرته على اكتشاف ومنع إنشاء المواد الإباحية التي تتضمن الاعتداء الجنسي على الأطفال، والعمل مع وكالات إنفاذ القانون لتحديد ومقاضاة الأفراد الذين يسيئون استخدام هذه التقنية. من المرجح أن يؤدي هذا الحادث إلى مزيد من التدقيق في تدابير سلامة الذكاء الاصطناعي وقد يؤدي إلى دعوات لتنظيم أكثر صرامة لتقنية إنشاء الصور بالذكاء الاصطناعي. ستراقب الصناعة عن كثب كيف تستجيب شركة xAI وما هي التدابير التي يتم تنفيذها لمنع وقوع حوادث مستقبلية.
Discussion
Join the conversation
Be the first to comment