أقرت رئاسة الوزراء في داونينج ستريت بتقارير تفيد بأن منصة X، المعروفة سابقًا باسم تويتر، تتخذ خطوات لمعالجة مشكلة التزييف العميق (deepfakes) التي يتم إنشاؤها باستخدام نموذج Grok للذكاء الاصطناعي الخاص بها. ويعكس هذا الترحيب الحكومي تزايد الضغوط على منصات التواصل الاجتماعي لمكافحة انتشار المعلومات المضللة الناتجة عن الذكاء الاصطناعي.
تأتي هذه الخطوة من جانب X وسط مخاوف متزايدة بشأن إمكانية إساءة استخدام Grok، وهو نموذج للذكاء الاصطناعي مصمم للذكاء الاصطناعي التفاعلي وإنشاء النصوص، في إنشاء محتوى صوتي ومرئي مقنع ولكنه مزيف. يمكن استخدام التزييف العميق، الذي يستفيد من تقنيات التعلم الآلي المتطورة، لانتحال شخصية الأفراد ونشر روايات كاذبة والتلاعب بالرأي العام.
وصرح متحدث باسم داونينج ستريت: "نرحب بأي جهود للتخفيف من المخاطر المرتبطة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. من الأهمية بمكان أن تتحمل المنصات مسؤولية التكنولوجيا التي تنشرها وأن تعمل بنشاط لمنع إساءة استخدامها."
إن Grok، الذي طورته xAI، شركة الذكاء الاصطناعي التابعة لإيلون ماسك، هو نموذج لغوي كبير (LLM) تم تدريبه على مجموعة بيانات ضخمة من النصوص والأكواد. تستخدم النماذج اللغوية الكبيرة مثل Grok الشبكات العصبية التي تحتوي على مليارات المعلمات لفهم وإنشاء نصوص شبيهة بالنصوص البشرية. ينبع القلق من قدرة النموذج على إنشاء نصوص وحوارات واقعية يمكن دمجها بعد ذلك مع تقنيات معالجة الصور والفيديو لإنشاء تزييفات عميقة مقنعة.
في حين أن تفاصيل الإجراءات المحددة التي تتخذها X لا تزال محدودة، يتكهن محللو الصناعة بأن المنصة قد تقوم بتطبيق مجموعة من خوارزميات الكشف وسياسات الإشراف على المحتوى وآليات إبلاغ المستخدمين. يمكن لخوارزميات الكشف تحليل محتوى الفيديو والصوت بحثًا عن العلامات الدالة على التلاعب بالذكاء الاصطناعي، مثل التناقضات في حركات الوجه أو أنماط الكلام غير الطبيعية. ستحدد سياسات الإشراف على المحتوى موقف المنصة من التزييف العميق والعواقب المترتبة على المستخدمين الذين يقومون بإنشائه أو مشاركته. ستسمح آليات إبلاغ المستخدمين للمستخدمين بالإبلاغ عن المحتوى الذي يحتمل أن يكون ضارًا ليقوم فريق الإشراف في X بمراجعته.
لقد شكل ظهور أدوات الذكاء الاصطناعي التوليدية مثل Grok تحديًا كبيرًا لمنصات التواصل الاجتماعي وصناع السياسات على حد سواء. غالبًا ما تكافح اللوائح الحالية لمواكبة التطورات السريعة في تكنولوجيا الذكاء الاصطناعي. على سبيل المثال، يهدف قانون الذكاء الاصطناعي للاتحاد الأوروبي إلى تنظيم أنظمة الذكاء الاصطناعي بناءً على مستوى المخاطر التي تنطوي عليها، ولكن لا يزال يتعين رؤية مدى فعاليته في معالجة التهديد المحدد للتزييف العميق.
قد يكون التأثير الصناعي لإجراءات X كبيرًا، مما قد يشكل سابقة للمنصات الأخرى لكي تحذو حذوها. مع ازدياد تطور تكنولوجيا التزييف العميق وإمكانية الوصول إليها، سيزداد الضغط على شركات التواصل الاجتماعي لمعالجة هذه المشكلة بشكل استباقي. سيكون تطوير ونشر استراتيجيات فعالة للكشف والتخفيف أمرًا بالغ الأهمية في الحفاظ على ثقة الجمهور ومنع انتشار المعلومات المضللة.
لم تصدر X بعد بيانًا شاملاً يوضح خططها المحددة لمعالجة التزييف العميق الذي تم إنشاؤه بواسطة Grok. ومن المتوقع صدور مزيد من التفاصيل في الأسابيع المقبلة.
Discussion
Join the conversation
Be the first to comment