يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما وصفوه بـ "التزييفات العميقة المروعة" التي تم إنشاؤها بواسطة Grok، وهو روبوت الدردشة للذكاء الاصطناعي الخاص بالمنصة. تأتي هذه المطالبة في أعقاب طفرة في المحتوى الصوتي والمرئي الذي تم التلاعب به والذي يتم تداوله على X، مما يثير مخاوف بشأن المعلومات المضللة والأضرار المحتملة للأفراد والمؤسسات.
تتركز مخاوف الحكومة على قدرة Grok على إنشاء تزييفات عميقة واقعية ومقنعة، وهي وسائط اصطناعية يتم فيها استبدال شخص في صورة أو مقطع فيديو موجود بشخص آخر. وذكر المسؤولون أن هذه التزييفات العميقة تُستخدم لنشر روايات كاذبة وانتحال شخصيات عامة وربما التأثير على الرأي العام. وقال متحدث باسم إدارة معايير التكنولوجيا في بيان صدر: "إن تطور هذه التزييفات العميقة التي تم إنشاؤها بواسطة Grok أمر مقلق للغاية". "نحن نطالب X باتخاذ إجراءات فورية للتخفيف من المخاطر التي تشكلها على الجمهور."
Grok، الذي أطلقته شركة xAI للذكاء الاصطناعي التابعة لماسك، هو نموذج لغوي كبير (LLM) مصمم للإجابة على الأسئلة وإنشاء نص بأسلوب محادثة. يتم تدريب LLMs على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من فهم وإنشاء لغة شبيهة باللغة البشرية. في حين أن xAI قد روجت لإمكانات Grok في التعليم والترفيه، فقد حذر النقاد من احتمال إساءة استخدامه، لا سيما في إنشاء معلومات مضللة.
تحظر سياسة X الحالية إنشاء وتوزيع التزييفات العميقة التي تهدف إلى خداع أو تضليل، لكن المسؤولين يجادلون بأن آليات الإنفاذ الخاصة بالمنصة غير كافية. ويشيرون إلى الانتشار السريع للعديد من التزييفات العميقة البارزة على X في الأسابيع الأخيرة، بما في ذلك واحدة صورت زوراً سياسيًا بارزًا يدلي بتصريحات تحريضية. وأضاف المتحدث باسم إدارة معايير التكنولوجيا: "من الواضح أن جهود الاعتدال الحالية غير كافية لمعالجة حجم وتعقيد هذه المشكلة".
تضع مطالب الحكومة ضغوطًا على X لتعزيز قدراتها في الكشف عن التزييف العميق وإزالته. تشمل الحلول الممكنة تنفيذ أدوات كشف أكثر تطوراً تعمل بالذكاء الاصطناعي، وزيادة الإشراف البشري، والتعاون مع منظمات مستقلة لتدقيق الحقائق. يسلط الوضع الضوء أيضًا على التحديات الأوسع لتنظيم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وتحقيق التوازن بين حرية التعبير والحاجة إلى الحماية من المعلومات المضللة.
يشير محللو الصناعة إلى أن هذا الحادث قد يؤدي إلى زيادة التدقيق في شركات الذكاء الاصطناعي ومنصات التواصل الاجتماعي، مما قد يؤدي إلى لوائح أكثر صرامة ومساءلة أكبر عن المحتوى المشترك على منصاتهم. قالت الدكتورة أنيا شارما، الباحثة البارزة في أخلاقيات الذكاء الاصطناعي في معهد سياسة التكنولوجيا: "هذا بمثابة دعوة للاستيقاظ للصناعة بأكملها". "نحن بحاجة إلى تطوير ضمانات قوية لمنع إساءة استخدام تقنيات الذكاء الاصطناعي والتأكد من استخدامها بمسؤولية."
أقرت X بمخاوف الحكومة وذكرت أنها "تعمل بنشاط" على تحسين قدراتها في الكشف عن التزييف العميق وإزالته. لم تعلن الشركة بعد عن تدابير محددة ستتخذها، لكن المسؤولين أشاروا إلى أنهم يتوقعون خطة عمل مفصلة في غضون الأسبوعين المقبلين. يمكن أن يكون لنتائج هذا الوضع آثار كبيرة على مستقبل تنظيم الذكاء الاصطناعي ومكافحة المعلومات المضللة عبر الإنترنت.
Discussion
Join the conversation
Be the first to comment