أقرت رئاسة الوزراء في داونينج ستريت بتقارير تفيد بأن منصة X، المعروفة سابقًا باسم تويتر، تتخذ خطوات لمعالجة مشكلة التزييف العميق (deepfakes) التي يتم إنشاؤها باستخدام Grok، نموذج الذكاء الاصطناعي الخاص بها. تأتي هذه الخطوة وسط مخاوف متزايدة بشأن احتمال إساءة استخدام المحتوى الناتج عن الذكاء الاصطناعي لنشر المعلومات المضللة والدعاية.
صرح متحدث باسم رئيس الوزراء بأن الحكومة ترحب بأي جهود للتخفيف من المخاطر المرتبطة بالتزييف العميق، مؤكدًا على أهمية تطوير ونشر الذكاء الاصطناعي بشكل مسؤول. وقال المتحدث: "نحن نشجع رؤية المنصات تتخذ إجراءات استباقية لمعالجة الأضرار المحتملة المرتبطة بالمحتوى الناتج عن الذكاء الاصطناعي". "تلتزم الحكومة بالعمل مع الصناعة وأصحاب المصلحة الآخرين لضمان تطوير الذكاء الاصطناعي واستخدامه بطريقة آمنة وأخلاقية."
التزييف العميق (Deepfakes) هو وسائط اصطناعية يتم فيها استبدال شخص في صورة أو مقطع فيديو موجود بشخص آخر. يتحقق ذلك عادةً باستخدام تقنيات تعلم آلي متطورة، وخاصةً خوارزميات التعلم العميق - ومن هنا جاء اسم "التزييف العميق". Grok، نموذج الذكاء الاصطناعي الخاص بـ X، هو نموذج لغوي كبير (LLM) مشابه لتلك التي تشغل أدوات الذكاء الاصطناعي الأخرى مثل ChatGPT و Gemini من Google. يتم تدريب النماذج اللغوية الكبيرة (LLMs) على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من إنشاء نصوص شبيهة بالنصوص البشرية، وترجمة اللغات، وإنشاء أنواع مختلفة من المحتوى. يكمن القلق في أن Grok، إذا أسيء استخدامه، يمكن أن يولد تزييفات عميقة (deepfakes) ذات مظهر واقعي قادرة على خداع المشاهدين ونشر روايات كاذبة.
لم تنشر X بعد تفاصيل محددة بشأن الإجراءات التي تنفذها لمكافحة التزييف العميق (deepfakes) الذي تم إنشاؤه بواسطة Grok. ومع ذلك، يتكهن محللو الصناعة بأن الشركة قد تستخدم تقنيات مثل وضع علامات مائية على المحتوى الناتج عن الذكاء الاصطناعي، وتطوير خوارزميات للكشف عن التزييف العميق، وتنفيذ سياسات أكثر صرامة للإشراف على المحتوى. يتضمن وضع العلامات المائية تضمين علامة دقيقة، غالبًا ما تكون غير مرئية، في المحتوى الذي تم إنشاؤه والتي تحدده على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي. تحلل خوارزميات الكشف مقاطع الفيديو والصور بحثًا عن علامات تدل على التلاعب، مثل التناقضات في الإضاءة، أو حركات الوجه غير الطبيعية، أو التشوهات التي أدخلتها عملية إنشاء الذكاء الاصطناعي.
يشكل صعود التزييف العميق (deepfakes) تحديًا كبيرًا للنظام البيئي للمعلومات. يحذر الخبراء من أن مقاطع الفيديو والصور التي تم التلاعب بها يمكن استخدامها للإضرار بالسمعة والتأثير على الانتخابات وبث الفتنة. إن القدرة على تلفيق الأحداث والبيانات بشكل مقنع يمكن أن تقوض الثقة في المؤسسات وتقوض الخطاب العام.
أعلنت وزيرة الشؤون الرقمية في الحكومة مؤخرًا عن خطط لتقديم تشريع لتنظيم استخدام التزييف العميق (deepfakes)، مع التركيز على مجالات مثل الإعلانات السياسية والسلامة عبر الإنترنت. من المتوقع أن يتضمن التشريع المقترح تدابير تتطلب الكشف عن المحتوى الناتج عن الذكاء الاصطناعي وتحميل المنصات المسؤولية عن انتشار التزييف العميق الضار.
يقوم مكتب مفوض المعلومات (ICO)، وهو هيئة حماية البيانات المستقلة في المملكة المتحدة، أيضًا بدراسة الآثار الأخلاقية للذكاء الاصطناعي وتأثيره المحتمل على الخصوصية وأمن البيانات. أصدر مكتب مفوض المعلومات (ICO) إرشادات بشأن التطوير والنشر المسؤولين لأنظمة الذكاء الاصطناعي، مع التأكيد على الحاجة إلى الشفافية والمساءلة والعدالة.
لا يزال الوضع متقلبًا، ومن المتوقع صدور مزيد من التفاصيل بشأن الإجراءات المحددة التي تتخذها X في الأسابيع المقبلة. سيتم مراقبة فعالية هذه التدابير عن كثب من قبل صانعي السياسات وخبراء الصناعة والجمهور على حد سواء. تسلط المناقشة المستمرة الضوء على الحاجة الملحة إلى اتباع نهج متعدد الأوجه لمعالجة التحديات التي يفرضها التزييف العميق (deepfakes)، والذي يشمل الحلول التكنولوجية والأطر التنظيمية وحملات التوعية العامة.
Discussion
Join the conversation
Be the first to comment