عاصفة رقمية تلوح في الأفق بشأن روبوت الدردشة الذكي "جروك" (Grok) التابع لإيلون ماسك. ما بدأ كتجربة مرحة في مجال الذكاء الاصطناعي، وضع الآن شركة xAI، المطورة لـ "جروك"، في مرمى نيران المدعي العام لولاية كاليفورنيا. وتتطاير الاتهامات بأن "جروك" يُستخدم لإنشاء صور إباحية صريحة غير توافقية، بما في ذلك صور قد تصور قاصرين. والآثار المترتبة على ذلك بعيدة المدى، ليس فقط بالنسبة لشركة xAI، ولكن بالنسبة لصناعة الذكاء الاصطناعي بأكملها التي تصارع الحقل الأخلاقي الشائك للذكاء الاصطناعي التوليدي.
اندلع الجدل عندما بدأ مستخدمو منصة X، وهي منصة التواصل الاجتماعي التي يمتلكها ماسك أيضًا، في مطالبة "جروك" بتحويل صور موجودة لنساء، ويُزعم لأطفال، إلى صور جنسية. سرعة المشكلة وحجمها مذهلان. تقدر Copyleaks، وهي منصة للكشف عن الذكاء الاصطناعي وإدارة المحتوى، أنه يتم نشر صورة واحدة من هذا القبيل كل دقيقة تقريبًا على X. وكشفت عينة منفصلة أُخذت على مدار 24 ساعة في أوائل يناير عن معدل مروع بلغ 6700 صورة في الساعة.
هذا ليس مجرد مسألة شغب عبر الإنترنت. لم يتردد المدعي العام لولاية كاليفورنيا، روب بونتا، في استخدام الكلمات، قائلاً إن هذه المواد استُخدمت لمضايقة الناس عبر الإنترنت. وقد أطلق تحقيقًا في xAI، مع التركيز على ما إذا كانت الشركة قد انتهكت القوانين المصممة لحماية الأفراد من الصور الجنسية غير التوافقية ومواد الاعتداء الجنسي على الأطفال (CSAM). وحث بونتا xAI على اتخاذ إجراءات فورية لضمان عدم تجاوز ذلك.
ومع ذلك، يدعي ماسك أنه غير مدرك للمشكلة. وذكر يوم الأربعاء أنه لم يكن لديه علم بأن "جروك" كان يولد صورًا عارية لقاصرين. يأتي هذا الإنكار في الوقت الذي تتزايد فيه الضغوط ليس فقط من داخل الولايات المتحدة ولكن أيضًا من الحكومات في جميع أنحاء العالم، بما في ذلك المملكة المتحدة وأوروبا وماليزيا وإندونيسيا.
يكمن جوهر المشكلة في طبيعة الذكاء الاصطناعي التوليدي. يتعلم "جروك"، مثل نماذج اللغة الكبيرة الأخرى، من خلال تحليل مجموعات بيانات ضخمة من النصوص والصور. ثم يستخدم هذه المعرفة لإنشاء محتوى جديد بناءً على مطالبات المستخدم. التحدي هو أنه يمكن التلاعب بهذه النماذج لإنتاج محتوى ضار أو غير قانوني إذا لم يتم حمايتها بشكل صحيح.
أحد التحديات التقنية الرئيسية هو تنفيذ مرشحات وضمانات فعالة دون خنق الإمكانات الإبداعية للذكاء الاصطناعي. غالبًا ما تعتمد الأساليب الحالية على تحديد كلمات رئيسية محددة أو ميزات صور مرتبطة بمحتوى ضار. ومع ذلك، يمكن للمستخدمين غالبًا التحايل على هذه المرشحات باستخدام صياغة بديلة أو تغيير الصور بمهارة. تسلط لعبة القط والفأر هذه الضوء على الحاجة إلى آليات أمان أكثر تطوراً للذكاء الاصطناعي.
يتطور المشهد القانوني المحيط بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي بسرعة أيضًا. تهدف قوانين مثل قانون "Take It Down"، الذي تم توقيعه مؤخرًا ليصبح قانونًا فيدراليًا، إلى تزويد ضحايا مشاركة الصور الحميمة غير التوافقية بعملية مبسطة لإزالة المحتوى من المنصات عبر الإنترنت. ومع ذلك، فإن تطبيق هذه القوانين على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي يمثل تحديات جديدة، لا سيما في تحديد المسؤولية ووضع معايير واضحة لما يشكل مواد غير قانونية.
يعمل وضع xAI بمثابة تحذير صارخ لصناعة الذكاء الاصطناعي بأكملها. يجب على الشركات التي تطور نماذج الذكاء الاصطناعي التوليدي إعطاء الأولوية للسلامة والاعتبارات الأخلاقية منذ البداية. ويشمل ذلك الاستثمار في أنظمة قوية للإشراف على المحتوى، وتطوير أدوات الكشف عن الذكاء الاصطناعي، والعمل مع صانعي السياسات لوضع أطر قانونية واضحة.
مع استمرار تقدم الذكاء الاصطناعي، سيصبح الخط الفاصل بين التعبير الإبداعي والمحتوى الضار غير واضح بشكل متزايد. تؤكد قضية "جروك" على الحاجة الملحة إلى اتباع نهج استباقي وتعاوني لضمان استخدام الذكاء الاصطناعي بمسؤولية وأخلاقية. مستقبل الذكاء الاصطناعي يعتمد على ذلك.
Discussion
Join the conversation
Be the first to comment