يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما وصفوه بـ "التزييف العميق المروع" الذي يولده Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي التابع للمنصة. تأتي هذه المطالبة في أعقاب طفرة في المحتوى الصوتي والمرئي الواقعي ولكن الملفق المتداول على X، مما يثير مخاوف بشأن المعلومات المضللة المحتملة والإضرار بالسمعة.
تتركز مخاوف الحكومة على قدرة Grok على توليد تزييفات عميقة مقنعة للغاية، وهي وسائط اصطناعية يتم فيها استبدال شخص في صورة أو مقطع فيديو موجود بشخص آخر. هذه التقنية، على الرغم من وجود تطبيقات محتملة لها في الترفيه والتعليم، يمكن إساءة استخدامها لإنشاء روايات كاذبة والتلاعب بالرأي العام وتشويه سمعة الأفراد. وقال متحدث باسم إدارة تنظيم التكنولوجيا في بيان صدر: "إن السرعة والتطور اللذين يمكن لـ Grok إنتاج هذه التزييفات العميقة بهما أمر مقلق للغاية". "نحن بحاجة إلى تأكيدات بأن X تتخذ خطوات استباقية للتخفيف من المخاطر."
قدمت X برنامج Grok لمشتركيها المميزين في أواخر عام 2023 كميزة مصممة لتعزيز تفاعل المستخدم وتوفير أدوات إبداعية. يعتمد Grok على نموذج لغوي كبير (LLM)، وهو نوع من الذكاء الاصطناعي يتم تدريبه على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنه من إنشاء نصوص شبيهة بالنصوص البشرية وترجمة اللغات وإنشاء أنواع مختلفة من المحتوى الإبداعي. في حين أن X قد نفذت إجراءات وقائية لمنع توليد محتوى ضار، إلا أن النقاد يجادلون بأن هذه الإجراءات غير كافية لمكافحة التطور المتزايد لتكنولوجيا التزييف العميق.
يشكل صعود التزييفات العميقة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تحديًا كبيرًا لصناعة التكنولوجيا والجهات التنظيمية على حد سواء. يحذر الخبراء من أن التكنولوجيا أصبحت في متناول الجميع بشكل متزايد، مما يسهل على الجهات الخبيثة إنشاء ونشر معلومات مضللة مقنعة. وقالت الدكتورة آنيا شارما، الباحثة الرائدة في مجال الذكاء الاصطناعي في معهد الأخلاقيات الرقمية: "التحدي لا يقتصر فقط على اكتشاف التزييفات العميقة، بل أيضًا على نسبها إلى مصدرها ومحاسبة المسؤولين عنها".
ردت X على مطالب الحكومة بالقول إنها ملتزمة بمكافحة إساءة استخدام الذكاء الاصطناعي على منصتها. وحددت الشركة التدابير الحالية التي تتخذها، والتي تشمل سياسات الإشراف على المحتوى وأدوات الكشف المدعومة بالذكاء الاصطناعي وآليات إبلاغ المستخدمين. وجاء في بيان صادر عن رئيس قسم الثقة والأمان في X: "نحن نعمل باستمرار على تحسين قدرتنا على تحديد وإزالة التزييفات العميقة والأشكال الأخرى من الوسائط التي تم التلاعب بها". "نستكشف أيضًا تقنيات جديدة، مثل العلامات المائية وتتبع المصدر، لمساعدة المستخدمين على التمييز بين المحتوى الأصلي والاصطناعي."
تراجع الحكومة حاليًا الإجراءات المقترحة من X وتدرس اتخاذ إجراءات تنظيمية إضافية. وقد يشمل ذلك فرض سياسات أكثر صرامة للإشراف على المحتوى، ومطالبة المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي بوضع علامات واضحة عليه، وفرض عقوبات على المنصات التي تفشل في معالجة انتشار التزييفات العميقة بشكل كاف. قد يكون لنتائج هذا الاستعراض آثار كبيرة على مستقبل تنظيم الذكاء الاصطناعي ومسؤولية منصات التواصل الاجتماعي في مكافحة المعلومات المضللة.
Discussion
Join the conversation
Be the first to comment