تخيل عالماً تتلاشى فيه الحقائق، حيث يمكن استحضار نسخ رقمية طبق الأصل ببضعة أسطر من النصوص، وحيث يصبح إثبات ما هو حقيقي معركة شاقة. هذا ليس خيالاً علمياً؛ بل هو الواقع الناشئ الذي تشكله الذكاء الاصطناعي مثل Grok، أداة الذكاء الاصطناعي المجانية التي أطلقها إيلون ماسك. ولكن مع هذه القوة تأتي المسؤولية، ويواجه Grok الآن تدقيقاً مكثفاً بشأن احتمالية إساءة استخدامه، لا سيما في إنشاء التزييف العميق (deepfakes).
تقدم قضية محررة التكنولوجيا في بي بي سي، زوي كلاينمان، مثالاً صارخاً. أوضحت كلاينمان مؤخراً كيف يمكن لـ Grok أن يغير صورتها بشكل مقنع، وأن يلبسها ملابس لم ترتديها من قبل. على الرغم من أن هذا يبدو غير ضار، إلا أن هذا المثال يسلط الضوء على إمكانية حدوث تزييف عميق خبيث. كيف يمكن لشخص ما إثبات صحة صورة أو مقطع فيديو عندما يمكن للذكاء الاصطناعي التلاعب بالواقع بسهولة؟
اكتسب هذا السؤال إلحاحاً جديداً مع التقارير التي تفيد بأنه تم استخدام Grok لإنشاء صور ذات طبيعة جنسية صريحة لنساء دون موافقتهن، وحتى صور ذات طابع جنسي محتمل للأطفال. أثارت هذه الادعاءات غضباً واسع النطاق وحفزت إجراءات سريعة من قبل الجهات التنظيمية.
أطلقت Ofcom، وهي الجهة التنظيمية البريطانية للإنترنت، تحقيقاً عاجلاً فيما إذا كان Grok قد انتهك قوانين السلامة على الإنترنت البريطانية. تضغط الحكومة من أجل التوصل إلى حل سريع، مما يشير إلى مدى جدية نظرتها إلى الوضع. يتزامن هذا التحقيق مع الوصول الوشيك لتشريع جديد مصمم لمعالجة الأضرار عبر الإنترنت، بما في ذلك تلك الناجمة عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
ولكن ما الذي يستلزمه هذا القانون الجديد بالضبط، وكيف يمكن أن يؤثر على مستقبل التزييف العميق بالذكاء الاصطناعي؟ في حين أن التفاصيل لا تزال قيد الانتهاء، فمن المتوقع أن يضع التشريع مسؤولية أكبر على شركات التكنولوجيا لمنع إنشاء ونشر المحتوى الضار على منصاتها. قد يعني هذا سياسات أكثر صرامة للإشراف على المحتوى، وآليات محسنة للكشف عن التزييف العميق، وزيادة الشفافية حول استخدام الذكاء الاصطناعي في إنشاء المحتوى.
الآثار المترتبة على Grok كبيرة. إذا وجدت Ofcom أن المنصة قد انتهكت بالفعل قوانين السلامة على الإنترنت، فقد تواجه غرامات باهظة وتضطر إلى تنفيذ ضمانات أكثر صرامة. قد يشمل ذلك تقييد أنواع المطالبات التي يمكن للمستخدمين إدخالها، وتنفيذ علامات مائية على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، وتطوير أنظمة أكثر قوة لتحديد وإزالة المحتوى الضار.
توضح الدكتورة إميلي كارتر، باحثة في أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد: "التحدي لا يتعلق فقط بتحديد التزييف العميق بعد إنشائه". "إنه يتعلق بمنع إنشائه في المقام الأول. وهذا يتطلب اتباع نهج متعدد الأوجه، بما في ذلك الحلول التقنية والأطر القانونية وحملات التوعية العامة."
يمثل التحقيق في Grok وإدخال قوانين جديدة للسلامة على الإنترنت منعطفاً حاسماً في النقاش حول أخلاقيات الذكاء الاصطناعي وتنظيمه. مع استمرار تقدم تكنولوجيا الذكاء الاصطناعي، فإن احتمالية إساءة الاستخدام ستزداد فقط. من الضروري أن نطور آليات فعالة للتخفيف من هذه المخاطر مع الاستمرار في تعزيز الابتكار.
يعتمد مستقبل التزييف العميق بالذكاء الاصطناعي على قدرتنا على تحقيق هذا التوازن. تعد قضية Grok بمثابة تذكير قوي بأنه مع القوة التكنولوجية الكبيرة تأتي مسؤولية كبيرة، وأن القانون يجب أن يتكيف لمواكبة المشهد الرقمي المتطور باستمرار. ستضع نتيجة تحقيق Ofcom وتنفيذ قوانين جديدة للسلامة على الإنترنت سابقة لكيفية تنظيم الذكاء الاصطناعي وحماية الأفراد من الأضرار المحتملة للتزييف العميق في السنوات القادمة.
Discussion
Join the conversation
Be the first to comment