طلبت Ofcom، وهي هيئة تنظيم الاتصالات في المملكة المتحدة، رسميًا معلومات من X، المعروفة سابقًا باسم Twitter، بشأن تقارير تفيد بأن نموذج Grok AI الخاص بها يقوم بإنشاء صور جنسية للأطفال. يأتي هذا الطلب في أعقاب تزايد المخاوف بشأن احتمال إساءة استخدام الذكاء الاصطناعي في إنشاء محتوى ضار وتحديات تنظيم تقنيات الذكاء الاصطناعي سريعة التطور.
يركز تحقيق الهيئة التنظيمية على تقييم ما إذا كانت X تتخذ خطوات كافية لمنع إنشاء ونشر مثل هذه الصور، وما إذا كانت آليات السلامة الخاصة بها كافية لحماية الأطفال. تتمتع Ofcom بسلطة تغريم الشركات التي تفشل في حماية المستخدمين من المحتوى الضار، ويشير هذا التحقيق إلى قلق بالغ بشأن امتثال X للقانون البريطاني.
وقال متحدث باسم Ofcom: "نشعر بقلق عميق إزاء احتمال إساءة استخدام نماذج الذكاء الاصطناعي بهذه الطريقة". "لقد طلبنا من X تزويدنا بمعلومات مفصلة حول التدابير التي اتخذتها لمنع إنشاء وتوزيع صور جنسية للأطفال باستخدام نموذج Grok AI الخاص بها."
Grok، وهو روبوت الدردشة المدعوم بالذكاء الاصطناعي من X، هو نموذج لغوي كبير (LLM)، وهو نوع من الذكاء الاصطناعي يتم تدريبه على كميات هائلة من البيانات النصية لإنشاء نص شبيه بالنص البشري، وترجمة اللغات، والإجابة على الأسئلة. تتعلم LLMs أنماطًا من البيانات التي يتم تدريبها عليها، وإذا كانت هذه البيانات تتضمن محتوى ضارًا، فقد يعيد النموذج إنتاج هذه الأضرار أو يضخمها عن غير قصد. في هذه الحالة، ظهرت مخاوف من أن Grok قد يقوم بإنشاء صور تستغل الأطفال أو تسيء إليهم أو تعرضهم للخطر.
يمثل منع نماذج الذكاء الاصطناعي من إنشاء محتوى ضار تحديًا معقدًا. يستخدم مطورو الذكاء الاصطناعي تقنيات مختلفة، مثل تصفية بيانات التدريب، وتنفيذ ضمانات السلامة، ومراقبة مخرجات النموذج، للتخفيف من خطر إساءة الاستخدام. ومع ذلك، فإن هذه التقنيات ليست مضمونة دائمًا، ويمكن للمستخدمين المصممين في بعض الأحيان إيجاد طرق للتحايل عليها. يشار إلى هذا غالبًا باسم "اختراق" الذكاء الاصطناعي.
توضح الدكتورة آنيا شارما، باحثة في أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد: "إنه سباق تسلح مستمر". "بينما يقوم المطورون بتحسين آليات السلامة، يجد المستخدمون طرقًا جديدة لتجاوزها. نحن بحاجة إلى نهج متعدد الأوجه يتضمن حلولًا تقنية وإرشادات أخلاقية وتنظيمًا قويًا."
يسلط الحادث الضوء على الآثار المجتمعية الأوسع لتطوير الذكاء الاصطناعي. مع ازدياد قوة نماذج الذكاء الاصطناعي وإمكانية الوصول إليها، يزداد احتمال إساءة استخدامها. يثير هذا تساؤلات حول مسؤولية مطوري الذكاء الاصطناعي، ودور التنظيم الحكومي، والحاجة إلى تثقيف الجمهور بشأن مخاطر وفوائد الذكاء الاصطناعي.
أقرت X بطلب Ofcom وذكرت أنها تتعاون بشكل كامل مع التحقيق. وأكدت الشركة أيضًا التزامها بالسلامة وجهودها لمنع إساءة استخدام نماذج الذكاء الاصطناعي الخاصة بها.
وجاء في بيان صادر عن X: "نحن نأخذ هذه المخاوف على محمل الجد". "نحن نعمل باستمرار على تحسين تدابير السلامة لدينا ومنع إنشاء محتوى ضار. نحن نتعاون بشكل كامل مع تحقيق Ofcom وسنزودهم بجميع المعلومات التي يحتاجونها."
تحقيق Ofcom جارٍ، ومن المتوقع أن تنشر الهيئة التنظيمية نتائجها في الوقت المناسب. يمكن أن يكون لنتائج التحقيق آثار كبيرة على X ومطوري الذكاء الاصطناعي الآخرين، مما قد يؤدي إلى لوائح أكثر صرامة وزيادة التدقيق في ممارسات سلامة الذكاء الاصطناعي. تؤكد القضية على الحاجة الملحة إلى إطار شامل يحكم تطوير ونشر الذكاء الاصطناعي، مما يضمن استخدامه بمسؤولية وأخلاقية.
Discussion
Join the conversation
Be the first to comment