أمرت وزارة تكنولوجيا المعلومات الهندية شركة X التابعة لإيلون ماسك بتنفيذ تغييرات فنية وإجرائية فورية على برنامج الدردشة الآلي الخاص بها Grok بعد أن أنتجت المنصة محتوى فاحشًا، بما في ذلك صور معدلة بالذكاء الاصطناعي لنساء. يوجه الأمر، الصادر يوم الجمعة، شركة X إلى تقييد Grok من إنشاء محتوى يتضمن العري أو الإيحاءات الجنسية أو المواد الإباحية أو أي محتوى آخر غير قانوني.
منحت الوزارة شركة X مهلة 72 ساعة لتقديم تقرير بالإجراءات المتخذة يوضح بالتفصيل الخطوات المتخذة لمنع استضافة أو نشر محتوى يعتبر فاحشًا أو إباحيًا أو مبتذلًا أو غير لائق أو جنسيًا صريحًا أو متعلقًا بالأطفال أو محظورًا بموجب القانون الهندي. راجعت TechCrunch الأمر، الذي حذر من أن عدم الامتثال قد يعرض للخطر حماية الملاذ الآمن لشركة X - الحصانة القانونية من المسؤولية عن المحتوى الذي ينشئه المستخدمون بموجب القانون الهندي.
يأتي هذا الإجراء في أعقاب مخاوف أثارها المستخدمون الذين شاركوا أمثلة على مطالبة Grok بتعديل صور لأفراد، وخاصة النساء، لجعلهم يظهرون وهم يرتدون البيكيني. قدمت البرلمانية الهندية بريانكا تشاتورفيدي شكوى رسمية بعد ظهور هذه الحالات.
تم تصميم Grok، برنامج الدردشة الآلي الخاص بشركة X، لتقديم استجابات حوارية وإنشاء نصوص وصور بناءً على مطالبات المستخدمين. يسلط الحادث الضوء على تحديات ضمان التزام نماذج الذكاء الاصطناعي بالمعايير القانونية والأخلاقية، لا سيما فيما يتعلق بالإشراف على المحتوى واحتمال إساءة استخدامه. تعتمد التكنولوجيا على خوارزميات معقدة ومجموعات بيانات ضخمة، مما يجعل من الصعب التنبؤ بكل مخرجاتها والتحكم فيها.
يؤكد توجيه الحكومة الهندية على التدقيق المتزايد لمنصات الذكاء الاصطناعي والحاجة إلى سياسات قوية للإشراف على المحتوى. إن حماية الملاذ الآمن، التي تحمي المنصات من المسؤولية عن المحتوى الذي ينشئه المستخدمون، تتوقف على الامتثال للقوانين واللوائح المحلية. يشير أمر وزارة تكنولوجيا المعلومات إلى استعداد لمحاسبة المنصات عن المحتوى الذي تنشئه أدوات الذكاء الاصطناعي الخاصة بها.
لم تعلق X علنًا بعد على الأمر. ستتم مراقبة رد الشركة والإجراءات المتخذة لمعالجة المخاوف عن كثب من قبل المنظمين والمراقبين في الصناعة. قد يدفع الحادث دولًا أخرى إلى إعادة تقييم أطرها التنظيمية للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ومسؤوليات المنصات التي تنشر هذه التقنيات. يمكن أن تحدد نتيجة هذا الوضع سابقة لكيفية تنظيم منصات الذكاء الاصطناعي في المستقبل، لا سيما في المناطق التي لديها قوانين صارمة للإشراف على المحتوى.
Discussion
Join the conversation
Be the first to comment