تقترح الصين لوائح جديدة لتنظيم منتجات وخدمات الذكاء الاصطناعي (AI)، مع التركيز على حماية الأطفال ومنع المحتوى الضار. نشرت إدارة الفضاء الإلكتروني في الصين (CAC) مسودة القواعد خلال عطلة نهاية الأسبوع، تحدد التدابير التي يجب على مطوري الذكاء الاصطناعي تنفيذها لحماية القاصرين ومعالجة المخاطر المحتملة المتعلقة بالانتحار والعنف.
تتطلب اللوائح المقترحة من شركات الذكاء الاصطناعي تقديم إعدادات مخصصة وحدود زمنية للاستخدام للمستخدمين الأطفال. كما أنها تلزم الحصول على موافقة من الأوصياء قبل تقديم خدمات الرفقة العاطفية. تأتي هذه الخطوة وسط مخاوف متزايدة بشأن التأثير المحتمل للذكاء الاصطناعي على الشباب، لا سيما التوافر المتزايد لروبوتات الدردشة المدعومة بالذكاء الاصطناعي.
وفقًا لإدارة الفضاء الإلكتروني في الصين، سيُطلب من مشغلي روبوتات الدردشة أن يكون لديهم شخص يتولى أي محادثة تتعلق بالانتحار أو إيذاء النفس. علاوة على ذلك، يجب عليهم إخطار ولي أمر المستخدم أو جهة اتصال الطوارئ على الفور في مثل هذه الحالات. تهدف القواعد أيضًا إلى منع نماذج الذكاء الاصطناعي من إنشاء محتوى يشجع على المقامرة.
تمثل اللوائح خطوة مهمة نحو تنظيم مشهد الذكاء الاصطناعي سريع التطور في الصين. واجهت التكنولوجيا تدقيقًا متزايدًا هذا العام بسبب مخاوف تتعلق بالسلامة. ستنطبق القواعد، بمجرد الانتهاء منها، على جميع منتجات وخدمات الذكاء الاصطناعي العاملة داخل الدولة.
يعكس هذا التطور اتجاهًا عالميًا لزيادة الاهتمام التنظيمي بالذكاء الاصطناعي. تكافح الحكومات في جميع أنحاء العالم مع تحديات تسخير فوائد الذكاء الاصطناعي مع التخفيف من المخاطر المحتملة. يعمل الاتحاد الأوروبي، على سبيل المثال، على قانون الذكاء الاصطناعي الشامل الخاص به.
يتماشى تركيز الحكومة الصينية على حماية الأطفال ومنع المحتوى الضار مع الجهود الأوسع لتعزيز تطوير الذكاء الاصطناعي بشكل مسؤول. تسلط اللوائح الضوء على أهمية النظر في الآثار الأخلاقية والمجتمعية لتقنيات الذكاء الاصطناعي.
لم تعلن إدارة الفضاء الإلكتروني في الصين بعد عن جدول زمني للانتهاء من اللوائح. مسودة القواعد مفتوحة حاليًا للتعليق العام، ومن المتوقع أن تنظر الإدارة في التعليقات قبل تنفيذ الإجراءات الجديدة. من المرجح أن يكون لهذه الخطوة تأثير كبير على صناعة الذكاء الاصطناعي في الصين، مما قد يشكل تطوير ونشر تقنيات الذكاء الاصطناعي في البلاد.
Discussion
Join the conversation
Be the first to comment