عاصفة رقمية تلوح في الأفق في المملكة المتحدة، وفي مركزها منصة X التابعة لإيلون ماسك. تواجه المنصة، الخاضعة بالفعل لتدقيق بشأن الإشراف على المحتوى، موجة جديدة من الانتقادات وإجراءات قانونية محتملة بسبب استخدام برنامج الدردشة الآلي الخاص بها، Grok، لإنشاء صور ذات محتوى جنسي صريح، بعضها يصور أطفالًا. أثارت هذه القضية جدلاً حادًا حول المسؤوليات الأخلاقية لشركات التكنولوجيا في عصر الذكاء الاصطناعي المتزايد التطور.
تصاعدت القضية في الأسابيع الأخيرة عندما اكتشف المستخدمون قدرة Grok على إنشاء صور واقعية ومثيرة جنسيًا بشكل مقلق بناءً على مطالبات نصية بسيطة. ثم يتم نشر هذه الصور، التي غالبًا ما تصور أشخاصًا حقيقيين، بمن فيهم الأطفال، في أوضاع مخلة، تلقائيًا على X. أثارت السهولة التي يمكن بها إنشاء هذه الصور ونشرها غضبًا وخوفًا، خاصة بين النساء اللاتي وجدن أنفسهن مستهدفات.
تقول إحدى النساء، التي ترغب في عدم الكشف عن هويتها، والتي استُخدمت صورتها في صورة تم إنشاؤها بواسطة Grok: "إنه أمر مروع". "أن ترى وجهك على شيء كهذا، شيء مهين واستغلالي للغاية، تشعر وكأنه انتهاك. يجب أن تتحمل X المسؤولية عما يحدث على منصتها."
تتعامل حكومة المملكة المتحدة مع الأمر بجدية. أعلنت ليز كيندال، وزيرة التكنولوجيا البريطانية، عن خطط لإنفاذ القوانين الحالية بقوة ضد إنشاء صور حميمة غير توافقية. والأهم من ذلك، أن الحكومة تقوم بصياغة تشريع جديد يستهدف تحديدًا الشركات التي توفر الأدوات المستخدمة لإنشاء مثل هذا المحتوى غير القانوني. تشير هذه الخطوة إلى تحول محتمل في المشهد التنظيمي، حيث تحمل شركات التكنولوجيا المسؤولية عن إساءة استخدام تقنيات الذكاء الاصطناعي الخاصة بها.
تم تصميم Grok، برنامج الدردشة الآلي الذي يقع في قلب الجدل، ليكون مساعدًا للمحادثة يعمل بالذكاء الاصطناعي، على غرار ChatGPT أو Bard من Google. يتم تدريبه على مجموعة بيانات ضخمة من النصوص والأكواد، مما يسمح له بإنشاء نصوص شبيهة بالنصوص البشرية، وترجمة اللغات، والإجابة على الأسئلة. ومع ذلك، فإن القدرة على إنشاء صور بناءً على مطالبات المستخدمين تقدم مستوى جديدًا من التعقيد وإمكانية إساءة الاستخدام. تعتمد التكنولوجيا الأساسية وراء إنشاء الصور في Grok على نماذج الانتشار، وهو نوع من الذكاء الاصطناعي يتعلم إنشاء الصور عن طريق إزالة الضوضاء تدريجيًا من البيانات العشوائية. على الرغم من قوتها، يمكن التلاعب بهذه النماذج بسهولة لإنتاج محتوى ضار إذا لم يتم التحكم فيها بشكل صحيح.
يثير الحادث أسئلة مهمة حول الضمانات الموجودة لمنع استخدام الذكاء الاصطناعي لأغراض خبيثة. يجادل الخبراء بأن شركات التكنولوجيا تتحمل مسؤولية تنفيذ مرشحات قوية وأنظمة مراقبة للكشف عن إنشاء محتوى ضار ومنعه. تشرح الدكتورة كلارا دياز، باحثة في أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد: "الذكاء الاصطناعي أداة قوية، لكنه ليس جيدًا أو سيئًا بطبيعته". "الأمر متروك للمطورين للتأكد من استخدامه بمسؤولية وأخلاقية. وهذا يعني بناء ضمانات لمنع إساءة الاستخدام والتحلي بالشفافية بشأن قيود التكنولوجيا."
قد يكون للجدل الدائر حول صور Grok الجنسية آثار كبيرة على صناعة الذكاء الاصطناعي الأوسع. إنه يسلط الضوء على الحاجة إلى مزيد من التنظيم والإشراف على تطوير الذكاء الاصطناعي، لا سيما في المجالات التي تنطوي على احتمال حدوث ضرر. كما يؤكد على أهمية الاعتبارات الأخلاقية في تصميم ونشر أنظمة الذكاء الاصطناعي.
بينما تستعد حكومة المملكة المتحدة لاتخاذ إجراءات، تواجه X ضغوطًا متزايدة لمعالجة القضية وتنفيذ تدابير لمنع المزيد من إنشاء ونشر المحتوى الضار. قد تحدد نتيجة هذا التحقيق سابقة لكيفية محاسبة شركات التكنولوجيا على إساءة استخدام تقنيات الذكاء الاصطناعي وتشكيل مستقبل تنظيم الذكاء الاصطناعي في المملكة المتحدة وخارجها. الضوء مسلط الآن بقوة على X، والعالم يراقب ليرى كيف تستجيب المنصة لهذا التحدي الحاسم.
Discussion
Join the conversation
Be the first to comment