يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما وصفوه بـ "التزييفات العميقة المروعة" التي ينتجها Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي الخاص بالمنصة. تأتي هذه المطالبة في أعقاب طفرة في المحتوى الواقعي ولكن الملفق الذي يتم تداوله على X، مما يثير مخاوف بشأن المعلومات المضللة والأضرار المحتملة للأفراد والمؤسسات.
تتركز مخاوف الحكومة على قدرة Grok على إنشاء تزييفات عميقة صوتية ومرئية مقنعة للغاية. يمكن لهذه الإبداعات الإعلامية الاصطناعية محاكاة أصوات ومظاهر أشخاص حقيقيين، مما يجعل من الصعب على المستخدم العادي التمييز بينها وبين المحتوى الأصيل. صرح متحدث حكومي قائلاً: "إن تطور هذه التزييفات العميقة مقلق للغاية. نحن نشهد مستوى من الواقعية يجعل من السهل للغاية خداع الجمهور".
Grok، الذي طورته شركة xAI التابعة لماسك والمتخصصة في الذكاء الاصطناعي، هو نموذج لغوي كبير (LLM) مصمم لإنشاء النصوص وترجمة اللغات وكتابة أنواع مختلفة من المحتوى الإبداعي والإجابة على الأسئلة بطريقة إعلامية. على عكس بعض النماذج اللغوية الكبيرة الأخرى، تم دمج Grok مباشرةً في منصة X، مما يسمح للمستخدمين الذين لديهم اشتراك مميز بالوصول إلى قدراته واستخدامها داخل بيئة التواصل الاجتماعي. هذا التكامل، على الرغم من أنه يهدف إلى تحسين تجربة المستخدم، فقد وفر عن غير قصد أداة متاحة بسهولة لإنشاء ونشر التزييفات العميقة.
إن تأثير هذه الحالة على الصناعة كبير. لطالما حذر خبراء أخلاقيات الذكاء الاصطناعي وخبراء التكنولوجيا من احتمال إساءة استخدام تقنيات الذكاء الاصطناعي التوليدية مثل Grok. يسلط الوضع الحالي على X الضوء على تحديات الموازنة بين الابتكار والنشر المسؤول. قالت الدكتورة أنيا شارما، وهي باحثة رائدة في مجال الذكاء الاصطناعي: "هذا بمثابة دعوة للاستيقاظ للصناعة بأكملها. نحن بحاجة إلى تطوير ضمانات قوية وآليات للكشف لمكافحة انتشار التزييفات العميقة قبل أن تتسبب في أضرار لا يمكن إصلاحها".
استجابت X لمطالب الحكومة بالقول إنها تعمل بنشاط على تحسين قدراتها في الكشف عن التزييفات العميقة وتنفيذ سياسات أكثر صرامة للإشراف على المحتوى. تدعي الشركة أنها تستثمر في خوارزميات الذكاء الاصطناعي المتقدمة المصممة لتحديد المحتوى الاصطناعي ووضع علامات عليه. جاء في بيان صادر عن X: "نحن ملتزمون بضمان سلامة منصتنا ومنع انتشار المعلومات المضللة الضارة". ومع ذلك، يجادل النقاد بأن جهود X غير كافية وأن المنصة بحاجة إلى اتخاذ إجراءات أكثر حسماً للحد من إنشاء وتوزيع التزييفات العميقة.
الوضع الحالي هو أن المناقشات بين الحكومة و X مستمرة. وبحسب ما ورد تدرس الحكومة اتخاذ تدابير تنظيمية إذا فشلت X في معالجة المشكلة بشكل كاف. من المتوقع أن تتضمن التطورات التالية إصدار سياسات محدثة للإشراف على المحتوى من قبل X وربما إدخال تشريع جديد يهدف إلى تنظيم استخدام المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. يؤكد الوضع على الحاجة الملحة إلى اتباع نهج شامل لإدارة المخاطر المرتبطة بتقنيات الذكاء الاصطناعي سريعة التطور.
Discussion
Join the conversation
Be the first to comment