تقترح الصين لوائح جديدة لتنظيم منتجات وخدمات الذكاء الاصطناعي (AI)، مع التركيز على حماية الأطفال ومنع المحتوى الضار. نشرت إدارة الفضاء الإلكتروني في الصين (CAC) مسودة القواعد خلال عطلة نهاية الأسبوع، مع تحديد تدابير لحماية الأطفال ومعالجة المخاطر المحتملة المرتبطة بالتفاعلات التي تعتمد على الذكاء الاصطناعي.
تستهدف اللوائح المقترحة مطوري الذكاء الاصطناعي، وتطالبهم بتطبيق إعدادات مخصصة وحدود زمنية للاستخدام للمستخدمين الأصغر سنًا. علاوة على ذلك، ستحتاج شركات الذكاء الاصطناعي إلى الحصول على موافقة من الأوصياء قبل تقديم خدمات الرفقة العاطفية للأطفال. تهدف القواعد أيضًا إلى منع نماذج الذكاء الاصطناعي من إنشاء محتوى يشجع على المقامرة، مما يعكس مخاوف أوسع بشأن إمكانية استخدام الذكاء الاصطناعي بطرق قد تضر بالمجتمع.
يعالج بند رئيسي خطر تقديم روبوتات الدردشة المدعومة بالذكاء الاصطناعي نصائح قد تؤدي إلى إيذاء النفس أو العنف. بموجب القواعد المقترحة، سيُطلب من مشغلي روبوتات الدردشة أن يتولى إنسان أي محادثة تتعلق بالانتحار أو إيذاء النفس. سيحتاج المشغل أيضًا إلى إخطار ولي أمر المستخدم أو جهة اتصال الطوارئ على الفور، وفقًا لإدارة الفضاء الإلكتروني في الصين.
تأتي هذه اللوائح وسط زيادة سريعة في عدد روبوتات الدردشة المدعومة بالذكاء الاصطناعي التي يتم إطلاقها في كل من الصين وعلى مستوى العالم. تشير هذه الخطوة إلى جهد كبير لتنظيم قطاع الذكاء الاصطناعي سريع النمو، والذي واجه تدقيقًا متزايدًا فيما يتعلق بمخاوف تتعلق بالسلامة. بمجرد الانتهاء منها، ستنطبق القواعد على جميع منتجات وخدمات الذكاء الاصطناعي العاملة داخل الصين.
يسلط هذا التطور الضوء على الجدل العالمي المتزايد المحيط بالآثار الأخلاقية للذكاء الاصطناعي والحاجة إلى أطر تنظيمية للتخفيف من المخاطر المحتملة. مع ازدياد تطور تكنولوجيا الذكاء الاصطناعي واندماجها في الحياة اليومية، تتصارع الحكومات والمنظمات مع كيفية ضمان تطويرها ونشرها بشكل مسؤول. تمثل اللوائح الصينية أحد الأساليب لمعالجة هذه التحديات، مع التركيز على مجالات محددة تثير القلق مثل سلامة الأطفال ومنع المحتوى الضار. لم تعلن إدارة الفضاء الإلكتروني في الصين بعد عن جدول زمني لموعد الانتهاء من مسودة القواعد وتنفيذها.
Discussion
Join the conversation
Be the first to comment