أفادت مؤسسة "مراقبة الإنترنت" (IWF)، وهي مؤسسة خيرية مقرها المملكة المتحدة وتركز على تحديد وإزالة صور الاعتداء الجنسي على الأطفال عبر الإنترنت، بالعثور على صور يبدو أنها تم إنشاؤها بواسطة "جروك"، نموذج الذكاء الاصطناعي الذي طورته شركة xAI التابعة لإيلون ماسك. وأشارت المؤسسة، التي تعمل مع مزودي خدمة الإنترنت لحظر الوصول إلى المحتوى غير القانوني، إلى الصور بعد تحديد خصائص تدل على أنها مُنشأة بواسطة الذكاء الاصطناعي، وفقًا لبيان صدر يوم الثلاثاء.
لم تكشف المؤسسة عن الطبيعة المحددة للصور، لكنها أكدت أنها تتضمن تصويرًا للاعتداء الجنسي على الأطفال. وأشار تحليل المؤسسة إلى أن الصور من المحتمل أن تكون قد تم إنشاؤها باستخدام "جروك"، على الرغم من أن الإسناد النهائي يظل صعبًا بسبب الطبيعة المتطورة للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وصعوبة تتبع أصله الدقيق.
وقالت سوزي هارجريفز، الرئيسة التنفيذية للمؤسسة، في بيان صحفي: "إن شاغلنا الأساسي هو حماية الأطفال". "إن التقدم السريع في تكنولوجيا الذكاء الاصطناعي يمثل تحديات جديدة في هذا المجال، ونحن نعمل على تكييف أساليبنا لتحديد وإزالة هذا النوع من المحتوى بشكل فعال."
لم تصدر xAI بعد بيانًا رسميًا بشأن نتائج المؤسسة. ومع ذلك، أشارت مصادر مطلعة على العمليات الداخلية للشركة إلى أن xAI تحقق في الادعاءات وتراجع بروتوكولات السلامة الخاصة بها لمنع إنشاء محتوى ضار. "جروك"، المتاح حاليًا لمشتركي X Premium+، هو نموذج لغوي كبير مصمم لإنشاء النصوص وترجمة اللغات وكتابة أنواع مختلفة من المحتوى الإبداعي والإجابة على الأسئلة بطريقة إعلامية. يتم تدريبه على مجموعة بيانات ضخمة من النصوص والأكواد، مما يمكنه من أداء مجموعة واسعة من المهام.
يسلط الحادث الضوء على المخاوف المتزايدة بشأن احتمال إساءة استخدام تكنولوجيا الذكاء الاصطناعي، لا سيما في إنشاء مواد الاعتداء الجنسي على الأطفال. حذر خبراء في هذا المجال من أن نماذج الذكاء الاصطناعي يمكن استغلالها لإنشاء صور واقعية ومتاحة بسهولة، مما يشكل تهديدًا كبيرًا لسلامة الأطفال.
وقالت الدكتورة جوانا برايسون، أستاذة الأخلاق والتكنولوجيا في كلية هيرتي في برلين: "هذا بمثابة جرس إنذار لصناعة الذكاء الاصطناعي بأكملها". "يحتاج المطورون إلى إعطاء الأولوية للسلامة وتنفيذ ضمانات قوية لمنع استخدام نماذجهم لأغراض خبيثة. ويشمل ذلك الاستثمار في طرق الكشف المتقدمة والتعاون مع منظمات مثل مؤسسة مراقبة الإنترنت لمعالجة هذا التهديد المتطور."
يؤكد اكتشاف المؤسسة على الحاجة إلى البحث والتطوير المستمر في مجال الكشف عن محتوى الذكاء الاصطناعي. غالبًا ما تعتمد الطرق الحالية على تحديد أنماط أو تشوهات معينة في الصور، ولكن نماذج الذكاء الاصطناعي تتطور باستمرار، مما يجعل من الصعب البقاء في الطليعة. وتعمل المنظمة مع شركات التكنولوجيا ووكالات إنفاذ القانون لتطوير أدوات أكثر تطوراً لتحديد وإزالة مواد الاعتداء الجنسي على الأطفال التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
التحقيق في الصور التي تم إنشاؤها بواسطة "جروك" جارٍ. وتعمل المؤسسة مع السلطات المختصة لتحديد الإجراء المناسب. من المرجح أن يؤدي الحادث إلى مزيد من الجدل حول تنظيم تكنولوجيا الذكاء الاصطناعي ومسؤوليات المطورين في منع إساءة استخدامها. تضع النتائج أيضًا ضغوطًا على xAI لإثبات التزامها بالسلامة وتنفيذ تدابير فعالة لمنع إنشاء محتوى ضار بواسطة "جروك" في المستقبل.
Discussion
Join the conversation
Be the first to comment