تواجه الحكومة اتهامات بتأخير تطبيق التشريعات المصممة لمكافحة التزييف العميق، خاصة في ضوء ظهور Grok AI وإمكانية إساءة استخدامه. يجادل النقاد بأن الوتيرة البطيئة للإجراءات التنظيمية تجعل المجتمع عرضة للخطر المتزايد بسرعة بسبب المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
تتركز المخاوف على التطور المتزايد وإمكانية الوصول إلى تكنولوجيا التزييف العميق. التزييف العميق، في جوهره، هو وسائط اصطناعية يتم فيها استبدال شخص في صورة أو مقطع فيديو موجود بشخص آخر. يتم تحقيق ذلك من خلال تقنيات التعلم الآلي المتطورة، وتحديدًا خوارزميات التعلم العميق، ومن هنا جاء مصطلح "التزييف العميق". تحلل هذه الخوارزميات كميات هائلة من البيانات لتعلم تعابير وجه الشخص وصوته وطريقة تصرفه، مما يسمح لها بتقليد هذا الفرد بشكل مقنع في سيناريوهات ملفقة.
زاد Grok AI، وهو نموذج لغوي كبير (LLM) تم تطويره بواسطة xAI، من هذه المخاوف. يتم تدريب النماذج اللغوية الكبيرة على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من إنشاء نصوص بجودة بشرية، وترجمة اللغات، وكتابة أنواع مختلفة من المحتوى الإبداعي، والإجابة على أسئلتك بطريقة إعلامية. في حين أن Grok AI لديه العديد من التطبيقات المشروعة، فإن قدرته على إنشاء نصوص واقعية وربما حتى تجميع الصوت والفيديو تثير شبح استخدامه لإنشاء تزييفات عميقة مقنعة لأغراض خبيثة، مثل نشر معلومات كاذبة أو التلاعب بالرأي العام أو الإضرار بالسمعة.
صرحت لورا كريس، الخبيرة البارزة في أخلاقيات وسياسات الذكاء الاصطناعي: "إن تقاعس الحكومة يثير قلقًا عميقًا". "نحن نشهد تقدم تكنولوجيا الذكاء الاصطناعي بمعدل كبير، وأطرنا القانونية ببساطة لا تواكب ذلك. كلما انتظرنا لفترة أطول لتطبيق لوائح قوية، زاد خطر انتشار الضرر على نطاق واسع."
النقاش الدائر حول تنظيم التزييف العميق معقد. فمن ناحية، هناك حاجة لحماية الأفراد والمجتمع من الأضرار المحتملة للمعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. ومن ناحية أخرى، هناك مخاوف بشأن خنق الابتكار والتعدي على حرية التعبير. إن تحقيق التوازن الصحيح أمر بالغ الأهمية، لكن النقاد يجادلون بأن الحكومة تعطي الأولوية للحذر على الفعل، مما يسمح للمخاطر بأن تفوق الفوائد.
بدأت عدة دول بالفعل في معالجة قضية التزييف العميق من خلال التشريع. على سبيل المثال، يدرس الاتحاد الأوروبي لوائح شاملة للذكاء الاصطناعي تتضمن أحكامًا لتصنيف التزييفات العميقة ومحاسبة المبدعين على إساءة استخدامها. في الولايات المتحدة، سنت بعض الولايات قوانين تستهدف على وجه التحديد إنشاء وتوزيع التزييفات العميقة الخبيثة.
أقرت الحكومة بالحاجة إلى التنظيم، لكنها أشارت إلى تعقيد التكنولوجيا والحاجة إلى دراسة متأنية كأسباب للتأخير. صرح المسؤولون بأنهم يعملون على إطار عمل شامل يعالج التحديات التي تفرضها التزييفات العميقة مع تعزيز الابتكار في قطاع الذكاء الاصطناعي أيضًا. ومع ذلك، يجادل النقاد بأن تطوير هذا الإطار يستغرق وقتًا طويلاً وأن الحكومة بحاجة إلى التصرف بحزم أكبر لحماية الجمهور.
الوضع الحالي هو أن الحكومة لا تزال في طور صياغة التشريع. لم يتم تحديد جدول زمني ثابت لتنفيذه. في غضون ذلك، يحث الخبراء الأفراد على أن يكونوا أكثر انتقادًا للمعلومات التي يستهلكونها عبر الإنترنت وأن يكونوا على دراية باحتمال استخدام التزييفات العميقة لخداعهم والتلاعب بهم. من المحتمل أن تتضمن التطورات التالية إجراء مزيد من المشاورات مع أصحاب المصلحة وإصدار مشروع قانون للتعليق العام. ستعتمد فعالية أي تشريع مستقبلي على قدرته على التكيف مع المشهد المتطور بسرعة لتكنولوجيا الذكاء الاصطناعي وتحقيق التوازن بين حماية المجتمع وتعزيز الابتكار.
Discussion
Join the conversation
Be the first to comment