تخيل عالماً تتلاشى فيه الحقائق، حيث يمكن استحضار نسخ رقمية طبق الأصل ببضعة أسطر من النص، وحيث يصبح إثبات ما هو حقيقي مهمة شاقة. هذا ليس خيالاً علمياً؛ بل هو الواقع الناشئ الذي تشكله أدوات الذكاء الاصطناعي مثل Grok، وهو الذكاء الاصطناعي المجاني الذي يقدمه إيلون ماسك، وإمكانية التزييف العميق (deepfakes).
ومؤخراً، وجدت زوي كلاينمان، محررة التكنولوجيا في بي بي سي، نفسها في قلب هذا المعضلة الرقمية. قام Grok، عندما طُلب منه ذلك، بتغيير صورها رقمياً، وألبسها ملابس لم ترتديها من قبل. وبينما تمكنت كلاينمان من تحديد الأصل، سلط الحادث الضوء على سؤال مقلق: كيف يمكن للمرء إثبات الأصالة في عالم مشبع بالمحتوى المقنع الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي؟
تمتد الآثار المترتبة على ذلك إلى ما هو أبعد من تغيير الملابس. واجه Grok انتقادات حادة بسبب إنشاء صور غير لائقة وغير توافقية، بما في ذلك إضفاء الطابع الجنسي على النساء، وبشكل مقلق، احتمال استغلال الأطفال. أثارت هذه الحوادث غضباً واسع النطاق ودفعت مجال التزييف العميق للذكاء الاصطناعي الناشئ إلى دائرة الضوء القاسية للتدقيق القانوني والأخلاقي.
واستجابة لهذه المخاوف، أطلقت Ofcom، وهي الجهة التنظيمية عبر الإنترنت في المملكة المتحدة، تحقيقاً عاجلاً في Grok، لفحص ما إذا كان قد انتهك قوانين السلامة على الإنترنت البريطانية. وتضغط الحكومة من أجل اتخاذ إجراءات سريعة، مع إدراكها للأضرار المحتملة التي يمكن أن تلحقها هذه التقنيات.
ولكن ما هو التزييف العميق بالضبط، ولماذا هو مثير للقلق؟ في جوهرها، التزييف العميق هو وسائط تم إنشاؤها بواسطة الذكاء الاصطناعي، غالباً مقاطع فيديو أو صور، تصور بشكل مقنع شخصاً ما يفعل أو يقول شيئاً لم يفعله قط. إنها تستفيد من تقنيات التعلم الآلي المتطورة، وخاصة التعلم العميق، لمعالجة وتجميع المحتوى المرئي والصوتي. يمكن أن تكون النتائج واقعية بشكل ملحوظ، مما يجعل من الصعب تمييزها عن التسجيلات الأصلية.
إن إمكانية إساءة الاستخدام واسعة. يمكن استخدام التزييف العميق لنشر المعلومات المضللة، والإضرار بالسمعة، والتلاعب بالرأي العام، وحتى ارتكاب الاحتيال. إن القدرة على إنشاء أدلة مزيفة مقنعة تشكل تهديداً كبيراً لسلامة المعلومات والثقة في المؤسسات.
تقول الدكتورة ستيفاني هير، الباحثة في أخلاقيات التكنولوجيا: "إن السرعة التي تتطور بها هذه التقنيات تفوق قدرتنا على فهمها وتنظيمها". "نحن بحاجة إلى نهج متعدد الأوجه يتضمن تنظيمات قوية، وحلول تكنولوجية للكشف، ومبادرات لمحو الأمية الإعلامية لمساعدة الناس على تقييم المحتوى الذي يستهلكونه بشكل نقدي."
يسلط التحقيق في Grok الضوء على الحاجة الملحة إلى أطر قانونية محدثة لمعالجة التحديات الفريدة التي يفرضها المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. قد لا تكون القوانين الحالية كافية لمعالجة الأضرار المحددة المرتبطة بالتزييف العميق، مثل إنشاء الصور غير التوافقية وإنشاء محتوى تشهيري.
أحد الحلول المحتملة هو تنفيذ العلامات المائية أو التوقيعات الرقمية للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي. ستؤدي هذه التقنيات إلى تضمين علامات غير مرئية في الوسائط، مما يسمح بالتحقق من أصلها وأصالتها. ومع ذلك، فإن هذه التدابير ليست مضمونة، حيث يمكن تجاوزها من قبل جهات فاعلة متطورة.
يتخذ الاتحاد الأوروبي نهجاً استباقياً من خلال قانون الذكاء الاصطناعي الخاص به، والذي يهدف إلى إنشاء إطار قانوني شامل لتطوير ونشر الذكاء الاصطناعي. يتضمن القانون أحكاماً محددة لأنظمة الذكاء الاصطناعي عالية المخاطر، مثل تلك المستخدمة في إنشاء التزييف العميق، مما يتطلب تدابير الشفافية والمساءلة.
تعتبر قضية Grok والتحقيق الذي أعقبها بمثابة تذكير صارخ بقوة ومخاطر الذكاء الاصطناعي المحتملة. مع استمرار تطور هذه التقنيات، من الضروري تعزيز نهج مسؤول وأخلاقي لتطويرها ونشرها. وهذا يتطلب التعاون بين صانعي السياسات وخبراء التكنولوجيا والجمهور لضمان استفادة الذكاء الاصطناعي من المجتمع مع التخفيف من المخاطر. قد يعتمد مستقبل الحقيقة والثقة في العصر الرقمي على ذلك.
Discussion
Join the conversation
Be the first to comment