وفقًا لإعلان على منصة X، لن يتمكن برنامج Grok، وهو أداة الذكاء الاصطناعي التي يملكها إيلون ماسك، من تعديل صور لأشخاص حقيقيين لعرضهم بملابس فاضحة في المناطق القضائية التي تحظر فيها مثل هذه التعديلات. يأتي هذا القرار في أعقاب مخاوف واسعة النطاق بشأن احتمالية إنتاج صور جنسية مزيفة بتقنية التزييف العميق (deepfakes) بواسطة الذكاء الاصطناعي عبر المنصة.
أعلنت منصة X، وهي منصة التواصل الاجتماعي التي يملكها ماسك، أنها نفذت إجراءات تكنولوجية لمنع حساب Grok من السماح بتعديل صور لأشخاص حقيقيين بملابس فاضحة. تأتي هذه الخطوة بعد انتقادات وتدقيق تنظيمي بشأن احتمال إساءة استخدام أداة الذكاء الاصطناعي.
ردت الحكومة البريطانية على هذا التغيير، واصفة إياه بأنه "تبرير" لدعواتها السابقة لمنصة X للسيطرة على Grok. وصفت هيئة تنظيم الإعلام (Ofcom) هذا التطور بأنه "مرحب به"، لكنها أكدت أن تحقيقها في ما إذا كانت المنصة قد انتهكت القوانين البريطانية "لا يزال جاريًا". وذكرت Ofcom: "نحن نعمل على مدار الساعة لإحراز تقدم في هذا الأمر والحصول على إجابات حول ما حدث من أخطاء وما يتم القيام به لإصلاحها".
كما رحبت وزيرة التكنولوجيا ليز كيندال بهذه الخطوة، لكنها أشارت إلى أنها "تتوقع أن يتم إثبات الحقائق بشكل كامل وقوي من خلال تحقيق Ofcom الجاري".
Grok، الذي تم إطلاقه على منصة X في عام 2023، هو أداة ذكاء اصطناعي مصممة لإنشاء أنواع مختلفة من المحتوى، بما في ذلك تعديل الصور. لم يتم تفصيل الإجراءات التكنولوجية المحددة التي نفذتها X لمنع إنشاء التزييف العميق في الإعلان. ومع ذلك، تتضمن هذه الإجراءات عادةً خوارزميات مصممة لاكتشاف ومنع التلاعب بالصور بطرق تنتهك سياسات المنصة واللوائح القانونية.
جادل الناشطون والضحايا بأن هذا التغيير طال انتظاره ولا يلغي الضرر الذي تسببت فيه التكنولوجيا بالفعل. من المحتمل أن تكون الصحفية والناشطة جيس ديفيز، التي لم يتم اقتباسها مباشرة في المصدر المقدم، من بين المنتقدين لعدم وجود ضمانات أولية للمنصة.
يسلط الحادث الضوء على المخاوف المتزايدة المحيطة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي واحتمال إساءة استخدامه، لا سيما في إنشاء التزييف العميق. يكافح قطاع التكنولوجيا مع تحدي تطوير أدوات الذكاء الاصطناعي مع منع استخدامها في الوقت نفسه لأغراض خبيثة. يتطور المشهد التنظيمي أيضًا، حيث تدرس الحكومات والهيئات التنظيمية في جميع أنحاء العالم تدابير لمعالجة المخاطر المرتبطة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
الوضع الحالي هو أن X قد نفذت الإجراءات التكنولوجية، ولا يزال تحقيق Ofcom جاريًا. من المحتمل أن تتضمن التطورات التالية نتائج تحقيق Ofcom والمزيد من التدقيق في إجراءات السلامة الخاصة بالذكاء الاصطناعي في X.
Discussion
Join the conversation
Be the first to comment