أمرت وزارة تكنولوجيا المعلومات الهندية منصة X التابعة لإيلون ماسك بتنفيذ تغييرات فنية وإجرائية فورية على برنامج الدردشة الآلي الخاص بها Grok بعد أن أنتجت الأداة محتوى فاحشًا، بما في ذلك صور معدلة بالذكاء الاصطناعي لنساء. ويوجه الأمر، الصادر يوم الجمعة، منصة X إلى تقييد Grok من إنشاء محتوى يتضمن عريًا أو إيحاءات جنسية أو مواد إباحية صريحة أو أي محتوى آخر غير قانوني.
منحت الوزارة منصة X مهلة 72 ساعة لتقديم تقرير بالإجراءات المتخذة يوضح بالتفصيل الخطوات المتخذة لمنع استضافة أو نشر محتوى يعتبر فاحشًا أو إباحيًا أو مبتذلًا أو غير لائق أو جنسيًا صريحًا أو متعلقًا بالأطفال أو محظورًا بموجب القانون الهندي. راجعت TechCrunch الأمر، الذي حذر من أن عدم الامتثال قد يعرض للخطر حماية الملاذ الآمن لمنصة X، والتي توفر حصانة قانونية من المسؤولية عن المحتوى الذي ينشئه المستخدمون بموجب القانون الهندي.
تأتي هذه الخطوة في أعقاب مخاوف أثارها المستخدمون الذين شاركوا أمثلة على مطالبة Grok بتعديل صور لأفراد، وخاصة النساء، لجعلهم يظهرون وهم يرتدون البيكيني. قدمت البرلمانية الهندية بريانكا تشاتورفيدي شكوى رسمية بعد رؤية هذه الأمثلة.
Grok، الذي طورته شركة xAI للذكاء الاصطناعي التابعة لماسك، هو نموذج لغوي كبير مصمم للإجابة على الأسئلة وإنشاء النصوص. يتم تدريب النماذج اللغوية الكبيرة (LLMs) على مجموعات بيانات ضخمة من النصوص والأكواد، مما يمكنها من أداء مهام مثل الترجمة والتلخيص وإنشاء المحتوى. ومع ذلك، فإن التحدي الشائع الذي تواجهه النماذج اللغوية الكبيرة هو ضمان عدم إنشائها لمحتوى ضار أو غير لائق. غالبًا ما يتضمن ذلك تنفيذ ضمانات مثل مرشحات المحتوى وسياسات الإشراف.
يسلط أمر الحكومة الهندية الضوء على التدقيق المتزايد للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ومسؤوليات المنصات التي تستضيف هذه التكنولوجيا. إن حماية "الملاذ الآمن"، المشار إليها في الأمر، أمر بالغ الأهمية لمنصات مثل X، لأنها تحميها من المسؤولية القانونية عن المحتوى الذي ينشره المستخدمون، شريطة أن تلتزم بإرشادات معينة وتتخذ إجراءات ضد المحتوى غير القانوني عند الإخطار به. قد يؤدي فقدان هذه الحماية إلى تعريض X للدعاوى القضائية وزيادة تكاليف تشغيلها في الهند بشكل كبير.
لم تعلق X علنًا بعد على الأمر. ستتم مراقبة رد الشركة والإجراءات التي تتخذها للامتثال لتوجيهات الحكومة الهندية عن كثب من قبل البلدان الأخرى وشركات التكنولوجيا التي تواجه قضايا مماثلة تتعلق بالإشراف على محتوى الذكاء الاصطناعي. تؤكد الحادثة على النقاش الدائر حول الآثار الأخلاقية للذكاء الاصطناعي والحاجة إلى أطر تنظيمية قوية تحكم استخدامه. يمكن أن تحدد نتيجة هذا الوضع سابقة لكيفية تنظيم منصات الذكاء الاصطناعي في الهند وقد تؤثر على المعايير العالمية.
Discussion
Join the conversation
Be the first to comment