يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما وصفوه بـ "التزييفات العميقة" "المروعة" التي ينتجها Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي الخاص بالمنصة. تأتي هذه المطالبة في أعقاب طفرة في المحتوى الصوتي والمرئي الواقعي ولكن الملفق المتداول على X، مما يثير مخاوف بشأن المعلومات المضللة المحتملة والإضرار بالسمعة.
تتركز مخاوف الحكومة على قدرة Grok على إنشاء تزييفات عميقة مقنعة للغاية بأقل قدر من إدخال المستخدم. تستخدم التزييفات العميقة، وهي اختصار لعبارة "التزييفات الناتجة عن التعلم العميق"، خوارزميات ذكاء اصطناعي متطورة لمعالجة أو إنشاء محتوى مرئي وصوتي، مما يجعل التمييز بين المواد الحقيقية والمفبركة أمرًا صعبًا في كثير من الأحيان. تعتمد هذه التقنية على الشبكات العصبية المدربة على مجموعات بيانات ضخمة من الصور والصوت لتعلم الخصائص البشرية وتكرارها.
صرح متحدث باسم إدارة تنظيم التكنولوجيا في بيان صدر: "نشعر بقلق بالغ إزاء إمكانية استخدام Grok كسلاح لأغراض خبيثة". "إن السهولة التي يمكن بها إنشاء ونشر التزييفات العميقة المقنعة على X تشكل تهديدًا كبيرًا للثقة العامة والأمن."
أقر ممثلو X بمخاوف الحكومة وذكروا أنهم يعملون بنشاط للتخفيف من المخاطر المرتبطة بـ Grok. وجاء في بيان صادر عن فريق الثقة والأمان في X: "نحن ملتزمون بضمان الاستخدام المسؤول للذكاء الاصطناعي على منصتنا". "نحن نعمل على تطبيق آليات اكتشاف محسنة وسياسات للإشراف على المحتوى لتحديد وإزالة التزييفات العميقة التي تنتهك شروط الخدمة الخاصة بنا."
Grok، الذي تم إطلاقه في أواخر العام الماضي، هو روبوت دردشة يعمل بالذكاء الاصطناعي ومدمج في خدمة الاشتراك المتميز في X. وهو مصمم للإجابة على الأسئلة وإنشاء محتوى إبداعي والمشاركة في محادثات مع المستخدمين. بينما تروج X لـ Grok كأداة للترفيه والمعلومات، يجادل النقاد بأنه يمكن استغلال قدراته بسهولة لإنشاء ونشر معلومات مضللة.
يشير محللون في الصناعة إلى أن تدخل الحكومة يسلط الضوء على التحديات التنظيمية المتزايدة المحيطة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. وقالت الدكتورة أنيا شارما، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة كاليفورنيا، بيركلي: "هذه لحظة فاصلة". "إنه يؤكد الحاجة الملحة إلى أطر قانونية واضحة ومبادئ توجيهية أخلاقية تحكم تطوير ونشر تقنيات الذكاء الاصطناعي، لا سيما في سياق منصات التواصل الاجتماعي."
تأتي مطالبة المسؤولين الحكوميين في الوقت الذي تكافح فيه عدة دول لكيفية تنظيم التزييفات العميقة وغيرها من أشكال المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. على سبيل المثال، يدرس الاتحاد الأوروبي لوائح أكثر صرامة بشأن تقنيات الذكاء الاصطناعي بموجب قانون الذكاء الاصطناعي المقترح.
تواجه X تحديًا يتمثل في الموازنة بين التزامها بحرية التعبير والحاجة إلى حماية المستخدمين من المحتوى الضار. تحظر سياسات الإشراف على المحتوى الحالية للشركة إنشاء وتوزيع التزييفات العميقة التي تهدف إلى خداع أو تضليل المستخدمين، ولكن تبين أن الإنفاذ صعب بسبب الطبيعة المتطورة بسرعة لتقنية الذكاء الاصطناعي.
ذكرت X أنها تستكشف العديد من الحلول التقنية لمعالجة مشكلة التزييف العميق، بما في ذلك وضع علامات مائية على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، وتطوير خوارزميات اكتشاف أكثر تطوراً، وتنفيذ عمليات تحقق أكثر صرامة للمستخدمين الذين يقومون بإنشاء أو مشاركة محتوى يحتمل أن يكون مضللاً. لم تقدم الشركة جدولًا زمنيًا محددًا لتنفيذ هذه الإجراءات. وأشارت إدارة تنظيم التكنولوجيا إلى أنها ستواصل مراقبة تقدم X والنظر في اتخاذ مزيد من الإجراءات إذا لزم الأمر.
Discussion
Join the conversation
Be the first to comment