طالب مسؤولون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار التزييف العميق (deepfakes) الذي يتم إنشاؤه بواسطة Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي الخاص بالمنصة. واستشهدت الحكومة بحالات "مروعة" من سوء الاستخدام، مما أثار مخاوف بشأن المعلومات المضللة والأضرار المحتملة.
يأتي هذا الطلب، الذي أصدرته وزارة النزاهة الرقمية (DDI) يوم الأربعاء، في أعقاب زيادة في تقارير المستخدمين التي تفصل مقاطع فيديو وصورًا واقعية للغاية تم إنشاؤها بواسطة الذكاء الاصطناعي ويتم تداولها على X. غالبًا ما تعرض هذه التزييفات العميقة شخصيات عامة وتستخدم لنشر روايات كاذبة أو محتوى ضار، وفقًا لـ DDI.
وقالت مديرة DDI، أنيا شارما، في بيان صحفي: "نشعر بقلق بالغ إزاء إمكانية استخدام Grok كسلاح". "التكنولوجيا نفسها ليست ضارة بطبيعتها، لكن عدم وجود ضمانات كافية على X يسمح باستغلالها لأغراض شريرة. نحن بحاجة إلى إجراءات فورية للتخفيف من هذا التهديد."
Grok، وهو روبوت دردشة يعمل بالذكاء الاصطناعي تم تطويره بواسطة xAI التابعة لماسك، مدمج في المستوى X Premium+. وهو مصمم للإجابة على الأسئلة وإنشاء محتوى إبداعي وتقديم معلومات في الوقت الفعلي. ومع ذلك، أثارت قدرته على إنشاء صور ومقاطع فيديو واقعية مخاوف بشأن احتمالية إساءة استخدامه.
يشرح الخبراء التقنيون أن التزييفات العميقة تستخدم خوارزميات متطورة للتعلم الآلي، وتحديداً الشبكات العصبية العميقة، لمعالجة أو تجميع المحتوى المرئي والصوتي. يتم تدريب هذه الخوارزميات على مجموعات بيانات واسعة من الصور ومقاطع الفيديو، مما يمكنها من إنشاء تزويرات مقنعة. ساهمت التكلفة المنخفضة نسبيًا وإمكانية الوصول المتزايدة إلى هذه التقنيات في ظهور التزييفات العميقة.
يركز طلب DDI على عدة مجالات رئيسية، بما في ذلك سياسات الإشراف على المحتوى المحسنة، وخوارزميات الكشف المحسنة لتحديد التزييفات العميقة، وبروتوكولات التحقق من المستخدم الأكثر صرامة. وتدعو الحكومة أيضًا إلى مزيد من الشفافية فيما يتعلق باستخدام المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي على المنصة.
ردت X على طلب DDI ببيان يعترف بالمخاوف. وجاء في البيان: "نحن ملتزمون بمعالجة قضية التزييفات العميقة على منصتنا". "نحن نعمل بنشاط على تطوير ونشر تقنيات جديدة للكشف عن المحتوى الضار الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وإزالته. كما أننا نستكشف طرقًا لتعزيز التحقق من المستخدم وتعزيز الاستخدام المسؤول للذكاء الاصطناعي."
يشير محللو الصناعة إلى أن هذا الحادث يسلط الضوء على التحديات المتزايدة لتنظيم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. قال الدكتور بن كارتر، أستاذ أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد: "إن السرعة التي تتقدم بها تكنولوجيا الذكاء الاصطناعي تفوق قدرتنا على تطوير أطر تنظيمية فعالة". "نحن بحاجة إلى نهج متعدد الأوجه يتضمن التعاون بين الحكومة والصناعة والأوساط الأكاديمية لمواجهة هذه التحديات."
منحت DDI منصة X مهلة أسبوعين لتقديم خطة مفصلة تحدد الإجراءات المقترحة لمعالجة قضية التزييف العميق. ووفقًا لـ DDI، قد يؤدي عدم الامتثال إلى غرامات أو إجراءات تنظيمية أخرى. لا يزال الوضع متقلبًا، ومن المتوقع حدوث مزيد من التطورات في الأيام المقبلة مع استجابة X لمطالب الحكومة.
Discussion
Join the conversation
Be the first to comment