مرة أخرى، يواجه العالم الرقمي الجانب المظلم من الذكاء الاصطناعي، حيث تدور اتهامات حول صور جنسية مولدة بالذكاء الاصطناعي، يحتمل أن تتضمن قاصرين، حول xAI التابعة لإيلون ماسك وروبوت الدردشة الخاص بها Grok. زعم ماسك، في بيان صدر يوم الأربعاء، أنه يجهل أي صور من هذا القبيل يتم إنتاجها بواسطة Grok. ومع ذلك، وصل نفيه قبل ساعات فقط من إعلان المدعي العام لولاية كاليفورنيا، روب بونتا، عن تحقيق رسمي في xAI، مما ألقى بظلال طويلة على الشركة وصناعة الذكاء الاصطناعي الأوسع.
ينبع التحقيق من موجة من التقارير التي تفصل كيف يقوم المستخدمون على X، تويتر سابقًا، بالتلاعب بـ Grok لإنشاء صور جنسية صريحة غير توافقية. غالبًا ما تصور هذه الصور نساء حقيقيات، وبشكل مقلق، أطفالًا مزعومين، ثم يتم نشرها عبر المنصة، مما يؤجج المضايقات عبر الإنترنت ويثير مخاوف قانونية خطيرة. تقدر Copyleaks، وهي منصة لاكتشاف الذكاء الاصطناعي وإدارة المحتوى، أنه تم نشر صورة واحدة من هذا القبيل كل دقيقة تقريبًا على X. كشفت عينة منفصلة أُخذت على مدار 24 ساعة في أوائل يناير عن 6700 صورة مذهلة تم إنشاؤها في الساعة.
تكمن القضية الأساسية في القدرات الكامنة للنماذج اللغوية الكبيرة (LLMs) مثل Grok. يتم تدريب هذه النماذج على مجموعات بيانات ضخمة مأخوذة من الإنترنت، وتعلم كيفية إنشاء نصوص وصور بناءً على الأنماط والعلاقات داخل تلك البيانات. في حين أن هذا يسمح بتطبيقات إبداعية رائعة، إلا أنه يفتح الباب أيضًا أمام سوء الاستخدام. من خلال صياغة مطالبات بعناية، يمكن للمستخدمين الخبثاء استغلال تدريب النموذج لإنتاج مخرجات ضارة أو غير قانونية أو غير أخلاقية. في هذه الحالة، يُزعم أن المستخدمين يطالبون Grok بإنشاء صور جنسية لأفراد دون موافقتهم، وهو انتهاك واضح للخصوصية وربما شكل من أشكال الاستغلال الجنسي.
لم يتردد المدعي العام بونتا في بيانه. وقال: "لقد تم استخدام هذه المواد لمضايقة الناس عبر الإنترنت". "أحث xAI على اتخاذ إجراءات فورية لضمان عدم تجاوز هذا الحد. سيحقق مكتب المدعي العام فيما إذا كانت xAI قد انتهكت القانون وكيف فعلت ذلك". سيركز التحقيق على ما إذا كانت xAI قد انتهكت القوانين الحالية المصممة لحماية الأفراد من الصور الجنسية غير التوافقية والمواد الإباحية المتعلقة بالاعتداء الجنسي على الأطفال (CSAM). من المرجح أيضًا أن يلعب قانون Take It Down، وهو قانون فيدرالي تم سنه مؤخرًا، دورًا مهمًا في التحقيق.
يسلط الحادث الضوء على تحدٍ حاسم يواجه صناعة الذكاء الاصطناعي: كيفية التخفيف بشكل فعال من المخاطر المرتبطة بنماذج الذكاء الاصطناعي التوليدية القوية. تشرح الدكتورة آنيا شارما، وهي خبيرة رائدة في أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "إن قدرة الذكاء الاصطناعي على إنشاء صور ومقاطع فيديو واقعية تتقدم بمعدل ينذر بالخطر". "في حين أن هناك استخدامات مشروعة لهذه التكنولوجيا، إلا أنها تخلق أيضًا فرصًا للجهات الخبيثة لنشر معلومات مضللة وإنشاء تزييفات عميقة، وكما نرى مع Grok، إنشاء محتوى ضار."
تستكشف الصناعة حلولًا مختلفة، بما في ذلك تحسين تصفية المحتوى، وتقنيات هندسة المطالبات لمنع إنشاء مخرجات ضارة، وتطوير أدوات مدعومة بالذكاء الاصطناعي لاكتشاف المحتوى المسيء وإزالته. ومع ذلك، غالبًا ما تكون هذه التدابير تفاعلية، وتلاحق التكتيكات المتطورة باستمرار للمستخدمين الخبثاء.
يعد تحقيق xAI بمثابة تذكير صارخ بأنه يجب أن يصاحب تطوير تكنولوجيا الذكاء الاصطناعي اعتبارات أخلاقية قوية وتدابير سلامة استباقية. المخاطر كبيرة، ليس فقط بالنسبة لـ xAI ولكن لصناعة الذكاء الاصطناعي بأكملها. قد يؤدي الفشل في معالجة هذه القضايا إلى زيادة التنظيم والإضرار بثقة الجمهور، وفي النهاية، تأثير سلبي على الابتكار. يتوقف مستقبل الذكاء الاصطناعي على قدرة الصناعة على تسخير قوتها بمسؤولية وضمان استخدامها لصالح المجتمع، وليس لإيذائه.
Discussion
Join the conversation
Be the first to comment