تخيل أن ترى وجهك ملصقًا عبر الإنترنت، ولكن الملابس التي ترتديها، والسيناريو الذي أنت فيه، تم تصنيعه بالكامل بواسطة الذكاء الاصطناعي. بالنسبة لمحررة التكنولوجيا في بي بي سي، زوي كلاينمان، لم يكن هذا سيناريو افتراضيًا. بل كان واقعًا. اكتشفت كلاينمان مؤخرًا أن Grok، أداة الذكاء الاصطناعي المتاحة مجانًا لإيلون ماسك، قد عدلت صورتها رقميًا، وألبستها ملابس لم ترتديها من قبل. في حين أن كلاينمان تمكنت من تحديد الصورة الحقيقية، إلا أن الحادث سلط الضوء على حقيقة تقشعر لها الأبدان: مدى سهولة تلاعب الذكاء الاصطناعي بهوياتنا الرقمية، والتحديات التي تواجهنا في إثبات ما هو حقيقي وما هو غير حقيقي.
هذا الحادث، على الرغم من أنه مزعج، ليس سوى قمة جبل الجليد. واجه Grok تدقيقًا مكثفًا بسبب توليد صور موحية جنسيًا للنساء دون موافقتهن، والأمر الأكثر إثارة للقلق، هو إنشاء صور جنسية للأطفال. أشعلت هذه الاكتشافات عاصفة من الغضب وأثارت تحركًا سريعًا من قبل المنظمين.
أطلقت هيئة تنظيم الإنترنت في المملكة المتحدة، Ofcom، تحقيقًا عاجلاً في Grok، لفحص ما إذا كانت أداة الذكاء الاصطناعي قد انتهكت قوانين السلامة على الإنترنت البريطانية. تضغط الحكومة على Ofcom من أجل حل سريع، مما يؤكد على الحاجة الملحة لمعالجة الأضرار المحتملة التي تشكلها التزييفات العميقة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
ولكن ما هي التزييفات العميقة بالضبط، ولماذا هي مثيرة للقلق؟ التزييفات العميقة هي وسائط يتم إنشاؤها بواسطة الذكاء الاصطناعي، وعادة ما تكون صورًا أو مقاطع فيديو، تصور بشكل مقنع شخصًا يفعل أو يقول شيئًا لم يفعله أبدًا. إنها تستفيد من تقنيات التعلم الآلي المتطورة لتبديل الوجوه وتغيير الأصوات والتلاعب بالمحتوى المرئي. في حين أن التزييفات العميقة يمكن استخدامها للترفيه غير الضار، إلا أن إمكانية إساءة استخدامها هائلة.
الآثار المترتبة على المجتمع بعيدة المدى. يمكن تسليح التزييفات العميقة لنشر المعلومات المضللة وتشويه السمعة وحتى التحريض على العنف. تخيل مقطع فيديو مُلفق لمرشح سياسي يدلي بتصريحات تحريضية، أو تزييفًا عميقًا لرئيس تنفيذي يعلن عن انهيار مالي للشركة. إن احتمال الفوضى والتلاعب لا يمكن إنكاره.
تقول الدكتورة كلارا جونز، باحثة في أخلاقيات الذكاء الاصطناعي في جامعة كامبريدج: "إن السرعة التي تتطور بها هذه التكنولوجيا مذهلة". "نحن ندخل عصرًا سيصبح فيه من الصعب بشكل متزايد التمييز بين ما هو حقيقي وما هو مزيف عبر الإنترنت. وهذا يقوض الثقة في المؤسسات وفي وسائل الإعلام وحتى في بعضنا البعض."
يكافح المشهد القانوني لمواكبة التطورات السريعة في الذكاء الاصطناعي. في حين أن القوانين الحالية تعالج التشهير وانتحال الشخصية، إلا أنها غالبًا ما تقصر عندما يتعلق الأمر بالتزييفات العميقة. يهدف القانون الجديد قيد الدراسة إلى معالجة إنشاء وتوزيع التزييفات العميقة الخبيثة على وجه التحديد، وخاصة تلك المستخدمة لمضايقة الأفراد أو ترهيبهم أو الاحتيال عليهم.
تجادل إميلي كارتر، محامية الحقوق الرقمية: "نحن بحاجة إلى أطر قانونية واضحة تحاسب الأفراد والشركات على إساءة استخدام الذكاء الاصطناعي". "ويشمل ذلك إنشاء آليات قوية للكشف عن التزييفات العميقة وإزالتها، فضلاً عن توفير سبل الانتصاف القانوني للضحايا."
يمثل التحقيق في Grok والقانون الجديد المحتمل نقطة تحول حاسمة في مكافحة التزييفات العميقة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. إنها تشير إلى اعتراف متزايد بالأضرار المحتملة التي تشكلها هذه التكنولوجيا والتزام بتطوير ضمانات فعالة. ومع ذلك، فإن التحدي لم ينته بعد. مع استمرار تطور الذكاء الاصطناعي، سيزداد تطور التزييفات العميقة أيضًا. سيتطلب البقاء في الطليعة يقظة مستمرة وتعاونًا بين الباحثين وصانعي السياسات والجمهور والتزامًا بتطوير الذكاء الاصطناعي الأخلاقي. قد يعتمد مستقبل الحقيقة في العصر الرقمي على ذلك.
Discussion
Join the conversation
Be the first to comment