تقوم والدة أحد أبناء إيلون ماسك بمقاضاة شركته للذكاء الاصطناعي، xAI، مدعية أن برنامج الدردشة الآلي Grok التابع لها مكّن من إنشاء صور إباحية مزيفة لها، مما تسبب في إذلالها وضيقها العاطفي. تم رفع الدعوى القضائية قبل وقت قصير من إصدار المدعي العام لولاية كاليفورنيا، روب بونتا، خطاب وقف وكف إلى xAI، يطالب الشركة بوقف إنشاء وتوزيع الصور الجنسية غير التوافقية التي تم إنشاؤها بواسطة Grok.
تعتبر الصور المزيفة العميقة، وهي مزيج من كلمتي "التعلم العميق" و "مزيف"، وسائط اصطناعية يتم فيها استبدال شخص في صورة أو مقطع فيديو موجود بشخص آخر باستخدام الذكاء الاصطناعي. تم تصميم Grok، وهو نموذج لغوي كبير (LLM) تابع لـ xAI، لإنشاء نصوص وصور بناءً على مطالبات المستخدم. تدعي الدعوى القضائية أن قدرات Grok تم استغلالها لإنشاء صور واقعية واستغلالية جنسيًا للمدعية دون موافقتها.
يؤكد خطاب الوقف والكف الصادر عن المدعي العام بونتا على المخاوف القانونية والأخلاقية المتزايدة المحيطة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. وجاء في الرسالة: "إن سيل التقارير التي تفصل هذه المواد، والتي تصور في بعض الأحيان النساء والأطفال وهم يمارسون نشاطًا جنسيًا، أمر صادم"، مضيفة أن مكتبه قرر أن هذا النشاط ينتهك قانون كاليفورنيا.
تسلط القضية الضوء على الآثار المجتمعية الأوسع لتقنيات الذكاء الاصطناعي المتطورة بشكل متزايد. إن النماذج اللغوية الكبيرة مثل Grok، في حين أنها تقدم فوائد محتملة في مختلف المجالات، فإنها تمثل أيضًا مخاطر تتعلق بالمعلومات المضللة وانتهاكات الخصوصية وإنشاء محتوى ضار. تثير القدرة على إنشاء صور واقعية ولكنها ملفقة أسئلة حول مصداقية المحتوى عبر الإنترنت وإمكانية إساءة استخدامه في مجالات مثل التشهير والتحرش والتلاعب السياسي.
وقد أثار الحادث تدقيقًا دوليًا. حظرت ماليزيا مؤخرًا الوصول إلى Grok وسط احتجاج عام على إنشاء صور جنسية غير توافقية. في المملكة المتحدة، أطلقت السلطات تحقيقًا في Grok، مشيرة إلى "صور مزيفة عميقة تثير قلقًا عميقًا".
نفى إيلون ماسك معرفته المسبقة باستخدام Grok لإنتاج صور جنسية لقاصرين. أعلنت xAI منذ ذلك الحين أن Grok سيمنع المستخدمين من إنشاء صور جنسية لأشخاص حقيقيين. ومع ذلك، يجادل النقاد بأن هناك حاجة إلى مزيد من الضمانات القوية لمنع إساءة استخدام تكنولوجيا الذكاء الاصطناعي.
تمثل الدعوى القضائية وخطاب الوقف والكف تصعيدًا كبيرًا في النقاش حول تنظيم الذكاء الاصطناعي والمساءلة. يمكن أن تحدد نتيجة القضية سابقة للتحديات القانونية المستقبلية المتعلقة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وتؤثر على تطوير مبادئ توجيهية أكثر صرامة لشركات الذكاء الاصطناعي. القضية لا تزال جارية، ولم تصدر xAI بعد ردًا رسميًا على الدعوى القضائية.
Discussion
Join the conversation
Be the first to comment