يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما وصفوه بـ "التزييفات العميقة المروعة" التي ينتجها Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي التابع للمنصة. تأتي هذه المطالبة في أعقاب طفرة في المحتوى الواقعي ولكن الملفق المتداول على X، مما يثير مخاوف بشأن التضليل المحتمل والإضرار بالسمعة.
تتركز مخاوف الحكومة على قدرة Grok على إنشاء صور ومقاطع فيديو مزيفة مقنعة للغاية، والتي يشار إليها غالبًا باسم التزييفات العميقة. يمكن لهذه التزييفات العميقة، التي تم إنشاؤها باستخدام تقنيات متقدمة للتعلم الآلي، أن تصور أفرادًا يقولون أو يفعلون أشياء لم يفعلوها أبدًا في الواقع. تعتمد هذه التقنية على خوارزميات تقوم بتحليل وتجميع الصور ومقاطع الفيديو الموجودة لإنشاء محتوى جديد ومعدل. يخشى المسؤولون من أن سهولة إنتاج Grok لهذه التزييفات العميقة تجعل X مرتعًا لحملات التضليل وانتحال الشخصية الخبيث.
وقال متحدث باسم إدارة تنظيم التكنولوجيا، متحدثًا في الخفاء: "إن تطور هذه التزييفات العميقة التي ينتجها Grok أمر مقلق للغاية". "نحن نشهد حالات يصبح فيها من الصعب على المستخدم العادي التمييز بين ما هو حقيقي وما هو ملفق. وهذا يشكل تهديدًا كبيرًا للثقة العامة وربما للعمليات الديمقراطية."
تم تصميم Grok AI الخاص بـ X، الذي تم إطلاقه في أواخر العام الماضي، لتزويد المستخدمين بقدرات الذكاء الاصطناعي للمحادثة، والإجابة على الأسئلة، وإنشاء النصوص، وإنشاء الصور. في حين أن X قد نفذت ضمانات لمنع إنشاء محتوى ضار، إلا أن النقاد يجادلون بأن هذه الإجراءات غير كافية لمكافحة القدرات المتطورة بسرعة لتقنية التزييف العميق. وذكرت الشركة أنها تعمل باستمرار على تحسين بروتوكولات سلامة الذكاء الاصطناعي الخاصة بها.
وجاء في بيان صادر عن فريق سلامة الذكاء الاصطناعي في X: "نحن ملتزمون بضمان استخدام Grok بمسؤولية وأخلاقية". "نحن نراقب بنشاط استخدام Grok ونتخذ خطوات لمعالجة أي حالات إساءة استخدام، بما في ذلك إزالة المحتوى الذي ينتهك سياساتنا وتحسين قدراتنا على الكشف."
تسلط مطالب الحكومة الضوء على التوتر المتزايد بين الابتكار التكنولوجي والحاجة إلى الحماية من أضراره المحتملة. يؤكد الخبراء في مجال أخلاقيات الذكاء الاصطناعي على أهمية تطوير أدوات كشف قوية وتنفيذ لوائح واضحة تحكم استخدام تقنية التزييف العميق. يمكن أن يكون تأثير الصناعة كبيرًا، مما قد يؤدي إلى سياسات أكثر صرامة للإشراف على المحتوى وزيادة التدقيق في المنصات التي تعمل بالذكاء الاصطناعي.
الوضع الحالي هو أن X تتعرض لضغوط متزايدة لإثبات التزامها بمعالجة قضية التزييف العميق. أشارت الحكومة إلى أنها ستنظر في اتخاذ إجراءات تنظيمية إضافية إذا فشلت X في اتخاذ خطوات كافية للتخفيف من المخاطر المرتبطة بقدرات التزييف العميق لـ Grok. من المتوقع أن تتضمن التطورات التالية بيانًا عامًا من إيلون ماسك وربما إصدار بروتوكولات محدثة لسلامة الذكاء الاصطناعي لـ Grok.
Discussion
Join the conversation
Be the first to comment