يطالب مسؤولون حكوميون منصة التواصل الاجتماعي X التابعة لإيلون ماسك بمعالجة انتشار ما وصفوه بـ "المقاطع المزيفة المروعة" التي تم إنشاؤها بواسطة Grok، روبوت الدردشة بالذكاء الاصطناعي الخاص بالمنصة. يأتي هذا الطلب وسط مخاوف متزايدة بشأن احتمال تأثير المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على الرأي العام وتعطيل العمليات الديمقراطية.
واستشهد المسؤولون، الذين تحدثوا شريطة عدم الكشف عن هويتهم، بأمثلة محددة للمحتوى الذي تم إنشاؤه بواسطة Grok والذي اعتبروه إشكاليًا بشكل خاص، بما في ذلك مقاطع الفيديو والتسجيلات الصوتية التي تم التلاعب بها والتي نسبت زوراً تصريحات وأفعال لشخصيات عامة. وأكدوا أن هذه المقاطع المزيفة تشكل تهديدًا كبيرًا لسلامة المعلومات المشتركة على X ويمكن أن تكون لها عواقب وخيمة في العالم الحقيقي.
يتم إنشاء المقاطع المزيفة، المعروفة تقنيًا بالوسائط الاصطناعية، باستخدام تقنيات الذكاء الاصطناعي المتطورة، وخاصةً خوارزميات التعلم العميق، للتلاعب بالمحتوى المرئي والصوتي أو إنشائه. غالبًا ما يتم استخدام الشبكات الخصومية التوليدية (GANs)، حيث تتنافس شبكتان عصبيتان ضد بعضهما البعض: إحداهما تنشئ محتوى مزيفًا، والأخرى تحاول تمييزه عن المحتوى الحقيقي. تؤدي هذه العملية التكرارية إلى عمليات تزوير واقعية ومتزايدة الصعوبة في اكتشافها. إن ظهور نماذج الذكاء الاصطناعي القوية مثل Grok، المدمجة مباشرةً في منصة وسائط اجتماعية، يجعل إنشاء ونشر المقاطع المزيفة أسهل وأسرع بشكل ملحوظ.
تم الترويج في البداية لدمج X لـ Grok، وهو نموذج ذكاء اصطناعي تم تطويره بواسطة xAI التابعة لماسك، كوسيلة لتحسين تجربة المستخدم وتوفير ميزات مبتكرة. تم تصميم Grok للإجابة على الأسئلة بأسلوب محادثة وغالبًا ما يكون فكاهيًا، بالاعتماد على مجموعة بيانات واسعة من المعلومات. ومع ذلك، فإن قدرته على إنشاء النصوص والصور وحتى التعليمات البرمجية أثارت أيضًا مخاوف بشأن احتمال إساءة استخدامه.
وقالت الدكتورة آنيا شارما، الخبيرة البارزة في أخلاقيات الذكاء الاصطناعي في معهد التكنولوجيا والمجتمع: "إن السرعة والنطاق اللذين يمكن بهما إنشاء هذه المقاطع المزيفة ونشرها غير مسبوقين". "تتحمل منصات التواصل الاجتماعي مسؤولية تنفيذ ضمانات قوية لمنع تسليح هذه التقنيات."
يمارس طلب الحكومة ضغوطًا على X لاتخاذ خطوات ملموسة للتخفيف من المخاطر المرتبطة بـ Grok. تشمل التدابير المحتملة تنفيذ سياسات أكثر صرامة للإشراف على المحتوى، وتطوير أدوات الكشف المدعومة بالذكاء الاصطناعي لتحديد المقاطع المزيفة ووضع علامات عليها، وزيادة الشفافية بشأن استخدام الذكاء الاصطناعي على المنصة.
لم تصدر X بعد ردًا رسميًا على مطالب الحكومة. ومع ذلك، في بيان صدر مؤخرًا، أقرت الشركة بالتحديات التي يفرضها المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وذكرت أنها ملتزمة "بتطوير ونشر تقنيات الذكاء الاصطناعي المسؤولة". وأشارت الشركة أيضًا إلى سياساتها الحالية لمكافحة المعلومات المضللة والتلاعب، والتي قالت إنها تنفذها بنشاط.
يسلط هذا الوضع الضوء على النقاش الأوسع المحيط بتنظيم الذكاء الاصطناعي ومسؤوليات شركات التكنولوجيا في معالجة الأضرار المحتملة لتقنياتها. مع ازدياد قوة نماذج الذكاء الاصطناعي وإمكانية الوصول إليها، تزداد الحاجة إلى ضمانات فعالة ومبادئ توجيهية أخلاقية بشكل ملح. يمكن أن تحدد نتيجة هذا الوضع مع X و Grok سابقة لكيفية تعامل منصات التواصل الاجتماعي والحكومات مع تحديات المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي في المستقبل. ومن المتوقع أن تصدر الحكومة تقريرًا مفصلاً الأسبوع المقبل يوضح بالتفصيل مخاوفها وتوصياتها المحددة لـ X.
Discussion
Join the conversation
Be the first to comment