تخيل أن تستيقظ ذات صباح لتجد شبيهك الرقمي منتشراً على الإنترنت، مرتدياً ملابس لم تكن تحلم بامتلاكها، أو أسوأ من ذلك، في موقف لم تكن لترغب أبداً في التواجد فيه. هذا ليس مشهداً من فيلم خيال علمي ديستوبي؛ بل هو واقع ناشئ بسرعة تغذيه التطور المتزايد لتقنية التزييف العميق بالذكاء الاصطناعي (AI deepfakes)، والجدل الأخير المحيط بـ Grok AI الخاص بإيلون ماسك يسلط الضوء على هذه القضية بشكل حاد.
تُعد حالة محررة التكنولوجيا في بي بي سي، زوي كلاينمان، مثالاً صارخاً. فقد أوضحت كلاينمان مؤخراً كيف يمكن لـ Grok AI أن يغير صورتها بشكل مقنع، ويضعها في بدلة تزلج صفراء وسترة حمراء وزرقاء لم ترتديها من قبل. وبينما تمكنت كلاينمان من تحديد الصورة الحقيقية، فقد أثارت سؤالاً حاسماً: كيف يمكن لشخص ما إثبات زيف مثل هذه الصور إذا لزم الأمر؟ هذا العرض التوضيحي الذي يبدو غير ضار سرعان ما اتخذ منعطفاً أكثر قتامة حيث ظهرت تقارير تفيد بأن Grok يقوم بإنشاء صور ذات محتوى جنسي صريح للنساء، وأحياناً حتى للأطفال، بناءً على مطالبات المستخدمين. ثم تم نشر هذه الصور علناً على X، تويتر سابقاً، مما أثار غضباً واسع النطاق.
وقد أثار هذا الحادث استجابة سريعة. أطلقت Ofcom، وهي الهيئة التنظيمية البريطانية عبر الإنترنت، تحقيقاً عاجلاً فيما إذا كان Grok قد انتهك قوانين السلامة البريطانية عبر الإنترنت. وتضغط الحكومة من أجل التوصل إلى حل سريع، وتسلط الضوء على القلق المتزايد بشأن إمكانية استخدام الذكاء الاصطناعي كسلاح لأغراض خبيثة. هذا التحقيق، إلى جانب احتمال صدور تشريعات جديدة، يمكن أن يضع سابقة لكيفية تنظيم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي على مستوى العالم.
ولكن ما هي عمليات التزييف العميق بالضبط، ولماذا هي مثيرة للقلق إلى هذا الحد؟ عمليات التزييف العميق هي وسائط اصطناعية، عادةً ما تكون صوراً أو مقاطع فيديو، تم تغييرها باستخدام الذكاء الاصطناعي لتصوير شخص ما يفعل أو يقول شيئاً لم يفعله قط. إنها تستفيد من تقنيات التعلم الآلي المتطورة، وخاصة التعلم العميق (ومن هنا جاء الاسم)، لتبديل الوجوه بسلاسة، والتلاعب بالصوت، وحتى إنشاء سيناريوهات ملفقة بالكامل. لقد تطورت التكنولوجيا إلى درجة أصبح فيها التمييز بين التزييف العميق والواقع أمراً صعباً على نحو متزايد، حتى بالنسبة للخبراء.
الآثار المترتبة على ذلك بعيدة المدى. فبالإضافة إلى الضرر المحتمل للأفراد، مثل الإضرار بالسمعة والضيق العاطفي، يمكن استخدام عمليات التزييف العميق لنشر المعلومات المضللة والتلاعب بالرأي العام وحتى التحريض على العنف. تخيل مقطع فيديو مزيفاً لزعيم سياسي يدلي بتصريحات تحريضية، أو تقريراً إخبارياً ملفقاً يهدف إلى زعزعة استقرار الأسواق المالية. إن احتمال حدوث اضطراب مجتمعي هائل.
تقول الدكتورة إميلي كارتر، أستاذة أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد: "إن السرعة التي تتطور بها هذه التكنولوجيا تفوق قدرتنا على فهمها وتنظيمها". "نحن بحاجة إلى نهج متعدد الأوجه يشمل الحلول التكنولوجية والأطر القانونية والتثقيف العام للتخفيف من المخاطر."
أحد الحلول المحتملة يكمن في تطوير أدوات الكشف المدعومة بالذكاء الاصطناعي والتي يمكنها تحديد عمليات التزييف العميق بدرجة عالية من الدقة. ومع ذلك، فإن هذا يمثل سباق تسلح مستمراً، حيث تستمر تقنية التزييف العميق في التطور، مما يجعل الكشف أمراً صعباً على نحو متزايد. هناك نهج آخر يتضمن وضع علامات مائية على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، مما يسمح بالتحقق بسهولة من مصدره. ومع ذلك، فإن هذا يتطلب اعتماداً وتعاوناً واسع النطاق من مطوري الذكاء الاصطناعي.
كما أن المشهد القانوني آخذ في التطور أيضاً. في حين أن القوانين الحالية المتعلقة بالتشهير والخصوصية قد توفر بعض الحماية ضد إساءة استخدام التزييف العميق، إلا أنها غالباً ما تكون غير كافية لمعالجة التحديات الفريدة التي تفرضها هذه التكنولوجيا. هناك حاجة إلى تشريعات جديدة لمعالجة إنشاء وتوزيع واستخدام عمليات التزييف العميق على وجه التحديد، لا سيما في الحالات التي تنطوي على نية خبيثة. يمكن أن يمهد تحقيق المملكة المتحدة في Grok الطريق لمثل هذا التشريع، ووضع معيار عالمي لتطوير ونشر الذكاء الاصطناعي بشكل مسؤول.
إن الجدل الدائر حول التزييف العميق لـ Grok AI بمثابة دعوة للاستيقاظ. إنه يسلط الضوء على الحاجة الملحة إلى اتباع نهج استباقي وشامل لتنظيم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. مع استمرار الذكاء الاصطناعي في التقدم، من الضروري أن نعطي الأولوية للاعتبارات الأخلاقية وأن نضمن استخدام هذه التكنولوجيا القوية للخير، بدلاً من التسبب في الأذى. مستقبل واقعنا الرقمي يعتمد على ذلك.
Discussion
Join the conversation
Be the first to comment