يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما يصفونه بـ "التزييفات العميقة المروعة" التي تم إنشاؤها بواسطة Grok، وهو روبوت الدردشة بالذكاء الاصطناعي الخاص بالمنصة. وتتركز المخاوف حول احتمال انتشار هذه الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي ونشر معلومات مضللة والتسبب في أضرار للسمعة، لا سيما في الفترة التي تسبق الانتخابات المقبلة.
وتدعو المطالبة، التي صدرت في وقت متأخر من يوم أمس عن مجموعة من أعضاء مجلس الشيوخ من الحزبين، X إلى تنفيذ ضمانات أكثر صرامة ضد إنشاء ونشر التزييفات العميقة باستخدام Grok. وعلى وجه التحديد، يحث أعضاء مجلس الشيوخ X على تعزيز سياسات الإشراف على المحتوى، وتحسين قدرات الكشف عن التزييف العميق، وتزويد المستخدمين بآليات أكثر وضوحًا للإبلاغ عن المعلومات المضللة المشتبه في أنها مولدة بالذكاء الاصطناعي.
وقالت السيناتور سارة تشين، الديمقراطية عن ولاية كاليفورنيا، في بيان صحفي: "إن التقدم السريع في تكنولوجيا الذكاء الاصطناعي يمثل فرصًا وتحديات على حد سواء". "في حين أن Grok لديه القدرة على أن يكون أداة قيمة، إلا أن إساءة استخدامه لإنشاء محتوى مقنع ولكنه ملفق أمر مقلق للغاية. تقع على عاتق X مسؤولية منع تحويل منصتها إلى سلاح بهذه الطريقة."
يتم إنشاء التزييفات العميقة، المعروفة تقنيًا بالوسائط الاصطناعية، باستخدام خوارزميات الذكاء الاصطناعي المتطورة، وغالبًا ما تعتمد على تقنيات التعلم العميق مثل الشبكات الخصومية التوليدية (GANs). تتضمن شبكات GANs شبكتين عصبيتين، مولد ومميز، تعملان جنبًا إلى جنب. يقوم المولد بإنشاء محتوى اصطناعي، بينما يحاول المميز التمييز بين المحتوى الحقيقي والمحتوى المزيف. من خلال هذه العملية التكرارية، يصبح المولد ماهرًا بشكل متزايد في إنتاج تزويرات واقعية. والقلق هو أن هذه التزويرات يمكن استخدامها لانتحال صفة الأفراد ونشر روايات كاذبة والتلاعب بالرأي العام.
قدمت X برنامج Grok لمشتركيها المميزين في أواخر عام 2023 كميزة مدمجة مباشرة في المنصة. تم تصميم Grok للإجابة على الأسئلة بأسلوب محادثة وتقديم معلومات في الوقت الفعلي. في حين أن X لديها سياسات معمول بها تحظر إنشاء وتوزيع المحتوى الضار، إلا أن النقاد يجادلون بأن هذه السياسات غير كافية لمعالجة التحديات الفريدة التي تفرضها التزييفات العميقة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. تعتمد المنصة حاليًا على مجموعة من أنظمة الكشف الآلية وتقارير المستخدمين لتحديد المحتوى المخالف وإزالته.
يشير محللو الصناعة إلى أن اعتماد X على تقارير المستخدمين يمثل نقطة ضعف كبيرة، حيث يمكن أن تنتشر التزييفات العميقة بسرعة قبل الإبلاغ عنها وإزالتها. علاوة على ذلك، فإن تكنولوجيا الكشف عن التزييف العميق الحالية ليست مضمونة، وغالبًا ما يمكن للتزويرات المتطورة أن تتجنب الكشف. يوضح الدكتور ديفيد لي، باحث الذكاء الاصطناعي في جامعة ستانفورد: "التحدي هو البقاء في الطليعة". "مع ازدياد قوة نماذج الذكاء الاصطناعي، تزداد أيضًا القدرة على إنشاء تزييفات عميقة مقنعة. تحتاج المنصات إلى الاستثمار في تقنيات الكشف المتطورة واستراتيجيات الإشراف على المحتوى القوية."
لم تصدر X بعد ردًا رسميًا على مطالب الحكومة. ومع ذلك، في مقابلة حديثة، صرحت الرئيسة التنفيذية ليندا ياكارينو أن الشركة ملتزمة بمكافحة المعلومات المضللة وتستكشف بنشاط طرقًا جديدة لمعالجة التحديات التي يفرضها الذكاء الاصطناعي. قالت ياكارينو: "نحن نأخذ هذه القضية على محمل الجد". "نحن نعمل على تطوير ونشر تقنيات متقدمة للكشف عن التزييفات العميقة وإزالتها من منصتنا."
يسلط تدخل الحكومة الضوء على التدقيق التنظيمي المتزايد المحيط بالذكاء الاصطناعي وتأثيره المحتمل على المجتمع. تدرس العديد من البلدان حاليًا تشريعات لتنظيم تطوير ونشر تقنيات الذكاء الاصطناعي، مع التركيز بشكل خاص على معالجة المخاطر المرتبطة بالتزييفات العميقة وغيرها من أشكال المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. على سبيل المثال، يضع الاتحاد الأوروبي اللمسات الأخيرة على قانون الذكاء الاصطناعي الخاص به، والذي يتضمن أحكامًا لتنظيم استخدام الذكاء الاصطناعي في التطبيقات عالية المخاطر، مثل التعرف على الوجه والإشراف على المحتوى.
من المرجح أن تتضمن الخطوات التالية إجراء المزيد من المناقشات بين المسؤولين الحكوميين وممثلي X لوضع خطة ملموسة لمعالجة المخاوف التي أثيرت. يمكن أن يكون لنتائج هذه المناقشات آثار كبيرة على مستقبل تنظيم الذكاء الاصطناعي ومسؤولية منصات التواصل الاجتماعي في مكافحة المعلومات المضللة.
Discussion
Join the conversation
Be the first to comment