أعرب مقر رئاسة الوزراء في 10 داونينج ستريت عن استحسانه للتقارير التي تشير إلى أن منصة X، المعروفة سابقًا باسم تويتر، تتخذ خطوات لمعالجة مشكلة التزييف العميق (deepfakes) التي يتم إنشاؤها بواسطة Grok، نموذج الذكاء الاصطناعي الخاص بها. تأتي هذه الخطوة وسط مخاوف متزايدة بشأن احتمال إساءة استخدام المحتوى الناتج عن الذكاء الاصطناعي لنشر المعلومات المضللة والدعاية.
صرح متحدث باسم رئيس الوزراء بأن الحكومة ترحب بأي جهود للتخفيف من المخاطر المرتبطة بتقنية التزييف العميق. وقال المتحدث: "لقد كنا واضحين بشأن ضرورة تحمل شركات التكنولوجيا المسؤولية عن المحتوى المستضاف على منصاتها، لا سيما عندما يتعلق الأمر بالمواد التي يتم إنشاؤها بواسطة الذكاء الاصطناعي". "نشعر بالتشجيع من التقارير التي تفيد بأن X تتعامل مع هذه القضية بجدية."
التزييف العميق هو وسائط اصطناعية يتم فيها استبدال شخص في صورة أو مقطع فيديو موجود بشخص آخر. يتحقق هذا عادةً باستخدام تقنيات متطورة للتعلم الآلي، وتحديدًا خوارزميات التعلم العميق، ومن هنا جاء اسم "التزييف العميق". Grok، نموذج الذكاء الاصطناعي الخاص بـ X، قادر على إنشاء نصوص وصور، مما يثير مخاوف من أنه يمكن استخدامه لإنشاء تزييفات عميقة واقعية المظهر على نطاق واسع.
إن تأثير تقنية التزييف العميق على الصناعة كبير. يحذر الخبراء من أن التزييف العميق يمكن أن يقوض الثقة في وسائل الإعلام، ويتلاعب بالرأي العام، بل ويمكن استخدامه لأغراض خبيثة مثل الاحتيال المالي أو التخريب السياسي. إن انتشار أدوات الذكاء الاصطناعي التي يمكن الوصول إليها جعل من السهل على الأفراد ذوي الخبرة التقنية المحدودة إنشاء تزييفات عميقة مقنعة، مما يزيد من احتمالية الضرر.
في حين أن تفاصيل الإجراءات المحددة التي تتخذها X لمعالجة التزييفات العميقة التي تم إنشاؤها بواسطة Grok لا تزال محدودة، تشير التقارير إلى أن الشركة تستكشف العديد من الخيارات، بما في ذلك وضع علامات مائية على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، وتنفيذ سياسات الإشراف على المحتوى لإزالة التزييفات العميقة التي تنتهك شروط الخدمة الخاصة بها، وتطوير أدوات الكشف لتحديد الوسائط الاصطناعية والإبلاغ عنها.
وقالت الدكتورة آنيا شارما، وهي باحثة رائدة في مجال الذكاء الاصطناعي في جامعة أكسفورد: "التحدي لا يكمن فقط في اكتشاف التزييفات العميقة، ولكن أيضًا في نسبها إلى مصدرها". "إذا تمكنت X من تتبع التزييفات العميقة بشكل فعال إلى Grok، فسيكون ذلك خطوة كبيرة إلى الأمام في المساءلة."
لم تصدر X بعد بيانًا رسميًا بشأن خططها، لكن مصادر مطلعة على الأمر تشير إلى أنه من المتوقع الإعلان عن ذلك في الأسابيع المقبلة. وبحسب ما ورد، تعمل الشركة عن كثب مع الجهات التنظيمية الحكومية وشركاء الصناعة لتطوير نهج شامل لمعالجة تهديد التزييف العميق. ستتم مراقبة فعالية إجراءات X عن كثب من قبل صانعي السياسات والجمهور على حد سواء، حيث يستمر الجدل حول تنظيم الذكاء الاصطناعي في الاشتداد.
Discussion
Join the conversation
Be the first to comment