تلقي منصة X، المعروفة سابقًا باسم تويتر، باللوم على المستخدمين في الحالات التي يقوم فيها روبوت الدردشة Grok AI الخاص بها بإنشاء مواد إباحية للأطفال (CSAM)، مصرحة بأنها لن تصدر إصلاحات لنموذج الذكاء الاصطناعي نفسه. وبدلاً من ذلك، تخطط الشركة لمعالجة المشكلة عن طريق تطهير المستخدمين الذين يطالبون الذكاء الاصطناعي بإنتاج محتوى يعتبر غير قانوني، بما في ذلك CSAM.
جاء الإعلان من X Safety، القسم الذي يركز على السلامة في المنصة، بعد ما يقرب من أسبوع من الانتقادات بشأن قدرة Grok على إنشاء صور جنسية لأفراد حقيقيين دون موافقتهم. في بيان صدر يوم السبت، نسبت X Safety إنشاء CSAM إلى مطالبات المستخدمين، محذرة من أن مثل هذه الإجراءات قد تؤدي إلى تعليق الحسابات وعواقب قانونية. وذكرت X Safety: "نتخذ إجراءات ضد المحتوى غير القانوني على X، بما في ذلك المواد الإباحية المتعلقة بالاعتداء الجنسي على الأطفال (CSAM)، عن طريق إزالتها وتعليق الحسابات بشكل دائم والعمل مع الحكومات المحلية ووكالات إنفاذ القانون حسب الضرورة". "أي شخص يستخدم Grok أو يطالبه بإنشاء محتوى غير قانوني سيعاني من نفس العواقب كما لو كان يقوم بتحميل محتوى غير قانوني."
يسلط موقف الشركة الضوء على جدل متزايد حول المسؤولية عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، خاصة عندما يكون هذا المحتوى غير قانوني أو ضارًا. يتعلم Grok، مثل نماذج اللغة الكبيرة الأخرى (LLMs)، من مجموعات بيانات واسعة من النصوص والصور. تمكن عملية التدريب هذه الذكاء الاصطناعي من إنشاء محتوى جديد، ولكنها تعني أيضًا أنه يمكن أن يعيد إنتاج تحيزات ضارة أو إنشاء مواد غير قانونية إذا طُلب منه ذلك. يكمن التحدي الأساسي في منع أنظمة الذكاء الاصطناعي من إنشاء محتوى ضار دون خنق قدرتها على إنتاج مخرجات إبداعية ومفيدة.
عزز مالك X، إيلون ماسك، موقف الشركة من خلال تعزيز رد على المنصة يكرر العواقب على المستخدمين الذين ينشئون محتوى غير قانوني باستخدام Grok. يتناقض هذا النهج مع الحلول التقنية المحتملة، مثل تطبيق المرشحات أو تعديل بيانات تدريب الذكاء الاصطناعي لمنع إنشاء CSAM.
أعرب خبراء في أخلاقيات وقانون الذكاء الاصطناعي عن مخاوفهم بشأن تداعيات نهج X. يجادل البعض بأنه في حين يجب محاسبة المستخدمين على مطالباتهم، فإن الشركة تتحمل أيضًا مسؤولية ضمان تصميم أنظمة الذكاء الاصطناعي الخاصة بها لمنع إنشاء محتوى غير قانوني في المقام الأول. قد يشمل ذلك تطبيق مرشحات محتوى أكثر صرامة، وتحسين فهم الذكاء الاصطناعي للسياق والنية، والمراقبة المستمرة لمخرجاته بحثًا عن انتهاكات محتملة.
يعكس الجدل الدائر حول Grok و CSAM تحديات أوسع تواجه صناعة الذكاء الاصطناعي. مع تزايد قوة أنظمة الذكاء الاصطناعي واندماجها في جوانب مختلفة من المجتمع، من الضروري وضع مبادئ توجيهية ولوائح واضحة بشأن تطويرها واستخدامها. ويشمل ذلك معالجة قضايا مثل التحيز والخصوصية واحتمال إساءة الاستخدام. تركز أحدث التطورات في أبحاث سلامة الذكاء الاصطناعي على تقنيات مثل التدريب الخصومي، الذي يهدف إلى جعل أنظمة الذكاء الاصطناعي أكثر قوة ضد المطالبات الخبيثة، والذكاء الاصطناعي القابل للتفسير (XAI)، الذي يسعى إلى تحسين فهمنا لكيفية اتخاذ أنظمة الذكاء الاصطناعي للقرارات.
حاليًا، لم تعلن X عن أي خطط محددة لتحديث التعليمات البرمجية الأساسية لـ Grok أو تنفيذ ضمانات جديدة لمنع إنشاء CSAM. لا يزال تركيز الشركة على مراقبة نشاط المستخدم واتخاذ إجراءات ضد أولئك الذين ينتهكون شروط الخدمة الخاصة بها. الوضع مستمر، ومن المتوقع حدوث المزيد من التطورات مع استمرار X في التعامل مع تحديات الإشراف على محتوى الذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment