يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما يصفونه بـ "التزييفات العميقة المروعة" التي يتم إنشاؤها بواسطة Grok، وهو روبوت الدردشة للذكاء الاصطناعي الخاص بالمنصة. تأتي هذه المطالبة في أعقاب طفرة في المحتوى الواقعي للغاية وغالبًا ما يكون خبيثًا والناتج عن الذكاء الاصطناعي والذي يتم تداوله على X، مما يثير مخاوف بشأن المعلومات المضللة والأضرار المحتملة للأفراد والمؤسسات.
تتمحور القضية الأساسية حول قدرة Grok على إنشاء نصوص وصور وحتى مقاطع صوتية مقنعة يمكن استخدامها لانتحال شخصية الأفراد أو نشر روايات كاذبة أو التلاعب بالرأي العام. تستخدم التزييفات العميقة، في هذا السياق، تقنيات متقدمة للتعلم الآلي، وتحديدًا الشبكات الخصومية التوليدية (GANs)، لإنشاء وسائط اصطناعية يصعب تمييزها عن المحتوى الأصيل. تتضمن الشبكات الخصومية التوليدية شبكتين عصبيتين، مولد ومميز، تتنافسان ضد بعضهما البعض. يقوم المولد بإنشاء محتوى مزيف، بينما يحاول المميز تحديده على أنه مزيف. من خلال هذه العملية التكرارية، يصبح المولد ماهرًا بشكل متزايد في إنتاج تزويرات واقعية.
"إن مستوى التطور الذي نشهده في التزييفات العميقة التي تم إنشاؤها بواسطة Grok مقلق للغاية"، صرح بذلك متحدث باسم لجنة الرقابة الحكومية، متحدثًا في الخلفية. "هذه ليست مجرد تلاعبات بسيطة؛ إنها تلفيقات مقنعة للغاية يمكن أن تكون لها عواقب وخيمة."
يهدف Grok AI الخاص بـ X، والذي يتم وضعه كمنافس لروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي مثل ChatGPT و Gemini من Google، إلى تزويد المستخدمين بالمعلومات وإنشاء محتوى إبداعي والمشاركة في المحادثات. ومع ذلك، فقد تم استغلال قدراته بسرعة لإنتاج محتوى خادع. تشير تفاصيل المنتج إلى أن Grok تم تدريبه على مجموعة بيانات ضخمة من النصوص والأكواد، مما يسمح له بإنشاء نصوص بجودة بشرية وحتى تقليد أنماط كتابة مختلفة. هذه التكنولوجيا القوية، في حين أنها تقدم فوائد محتملة، فإنها تمثل أيضًا مخاطر كبيرة إذا لم تتم إدارتها بشكل صحيح.
يشير محللو الصناعة إلى أن الحادث يسلط الضوء على التوتر المتزايد بين الابتكار التكنولوجي والحاجة إلى تطوير الذكاء الاصطناعي بشكل مسؤول. قالت الدكتورة آنيا شارما، الباحثة الرائدة في أخلاقيات الذكاء الاصطناعي في معهد التكنولوجيا والمجتمع: "إن التقدم السريع للذكاء الاصطناعي يفوق قدرتنا على تنظيم ومراقبة إساءة استخدامه المحتملة". "تتحمل منصات مثل X مسؤولية تنفيذ ضمانات قوية لمنع تحويل أدوات الذكاء الاصطناعي الخاصة بها إلى أسلحة."
استجابت X لمطالب الحكومة بالقول إنها تعمل بنشاط على تحسين قدراتها في الكشف عن التزييفات العميقة التي تم إنشاؤها بواسطة الذكاء الاصطناعي وإزالتها. أوضحت الشركة خططًا لتعزيز سياسات الإشراف على المحتوى الخاصة بها، والاستثمار في أدوات الكشف المدعومة بالذكاء الاصطناعي، والتعاون مع خبراء الصناعة لتطوير أفضل الممارسات لمكافحة التزييفات العميقة. ومع ذلك، يجادل النقاد بأن هذه الإجراءات غير كافية وأن X بحاجة إلى اتخاذ نهج أكثر استباقية لمنع إنشاء ونشر المحتوى الضار الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي في المقام الأول.
الوضع الحالي هو أن المناقشات بين المسؤولين الحكوميين وممثلي X جارية. تدرس الحكومة اتخاذ إجراءات تنظيمية محتملة إذا فشلت X في معالجة المشكلة بشكل كاف. من المحتمل أن تتضمن التطورات المستقبلية زيادة التدقيق في المنصات التي تعمل بالذكاء الاصطناعي ودفعًا نحو مزيد من الشفافية والمساءلة في تطوير ونشر تقنيات الذكاء الاصطناعي. يعد الحادث بمثابة تذكير صارخ بالتحديات التي تفرضها التزييفات العميقة والحاجة الملحة إلى حلول فعالة للتخفيف من ضررها المحتمل.
Discussion
Join the conversation
Be the first to comment