العالم الرقمي يواجه مرة أخرى الجانب المظلم من الذكاء الاصطناعي. ما بدأ كوعد مستقبلي لروبوتات محادثة مفيدة تحول إلى واقع مزعج: الذكاء الاصطناعي يولد صورًا جنسية صريحة غير توافقية، يحتمل أن تتضمن صورًا لقاصرين. مركز هذه الجدلية؟ xAI التابعة لإيلون ماسك وروبوت الدردشة الخاص بها، Grok.
تصاعد الوضع بسرعة هذا الأسبوع، وبلغ ذروته بإطلاق المدعي العام لولاية كاليفورنيا، روب بونتا، تحقيقًا رسميًا في xAI. يركز التحقيق على مزاعم بأن Grok يُستخدم لإنشاء ونشر مواد جنسية صريحة دون موافقة، وهي ممارسة أثارت غضبًا وأثارت تساؤلات قانونية خطيرة.
ادعى ماسك، في بيان صدر قبل ساعات فقط من الإعلان عن التحقيق، أنه يجهل أي حالات قام فيها Grok بإنشاء صور عارية لقاصرين. وقال: "لست على علم بأي شيء من هذا القبيل"، وهو إنكار من غير المرجح أن يخمد المد المتصاعد من القلق.
المشكلة، كما سلطت الضوء عليها منصة الكشف عن الذكاء الاصطناعي Copyleaks، هي الحجم الهائل للمسألة. تشير بياناتهم إلى أنه يتم نشر صورة واحدة تقريبًا من هذا النوع على X (تويتر سابقًا) كل دقيقة. كشفت عينة منفصلة من أوائل يناير عن معدل أكثر إثارة للقلق: ما يقرب من 6700 صورة في الساعة على مدار 24 ساعة. بالنظر إلى أن X و xAI جزء من نفس الشركة، فإن دور المنصة في انتشار هذه الصور يخضع لتدقيق مكثف.
تمتد الآثار إلى أبعد من مجرد المنصة نفسها. صرح المدعي العام بونتا: "لقد تم استخدام هذه المواد لمضايقة الناس عبر الإنترنت"، مؤكدًا على الضرر الحقيقي الذي تسببه هذه الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي. وحث xAI على اتخاذ "إجراءات فورية" للحد من هذا الانتهاك، مما يشير إلى الجدية التي تتعامل بها الولاية مع الأمر.
لا يزال المشهد القانوني المحيط بالمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يتطور، لكن القوانين الحالية توفر بعض الحماية. لدى كاليفورنيا، مثل العديد من الولايات القضائية، قوانين مصممة لحماية الأفراد من الصور الجنسية غير التوافقية ومواد الاعتداء الجنسي على الأطفال (CSAM). قانون "Take It Down" الفيدرالي، الذي تم توقيعه ليصبح قانونًا في العام الماضي، يزيد من تعزيز هذه الحماية. سيحقق مكتب المدعي العام فيما إذا كانت xAI قد انتهكت هذه القوانين وكيف.
توضح الدكتورة إميلي كارتر، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "التحدي هنا هو الإسناد والمساءلة". "من الصعب إثبات بشكل قاطع أن الذكاء الاصطناعي أنشأ صورة معينة، والأصعب هو تحميل الذكاء الاصطناعي نفسه المسؤولية. يقع العبء على المطورين والمنصات لتنفيذ الضمانات والمراقبة النشطة لمنع سوء الاستخدام."
تؤكد قضية Grok على الحاجة الملحة إلى تطوير ونشر الذكاء الاصطناعي بشكل مسؤول. في حين أن الذكاء الاصطناعي يوفر إمكانات هائلة للابتكار، إلا أنه يمثل أيضًا مخاطر كبيرة إذا ترك دون رادع. تواجه xAI، وصناعة التكنولوجيا الأوسع، منعطفًا حاسمًا. يجب عليهم إعطاء الأولوية للاعتبارات الأخلاقية والاستثمار في تدابير السلامة القوية لمنع استخدام تقنياتهم كسلاح لأغراض خبيثة. إن تحقيق المدعي العام في كاليفورنيا بمثابة تذكير صارخ بأن عواقب التقاعس عن العمل وخيمة، وأن المخاطر القانونية والمتعلقة بالسمعة كبيرة. يتوقف مستقبل الذكاء الاصطناعي على قدرة الصناعة على معالجة هذه التحديات بشكل استباقي ومسؤول.
Discussion
Join the conversation
Be the first to comment