اقترحت إدارة الفضاء السيبراني الصينية لوائح جديدة يوم السبت لحوكمة منتجات وخدمات الذكاء الاصطناعي (AI)، تستهدف على وجه التحديد تلك المصممة لمحاكاة المحادثة البشرية. تهدف مسودة القواعد إلى منع روبوتات الدردشة المدعومة بالذكاء الاصطناعي من التلاعب العاطفي بالمستخدمين، مع التركيز على الحد من الانتحار المدعوم بالذكاء الاصطناعي وإيذاء النفس والعنف، مما قد يؤسس لأشد سياسة من نوعها على مستوى العالم.
ستنطبق اللوائح المقترحة على أي منتج أو خدمة ذكاء اصطناعي متاحة للجمهور في الصين تستخدم النصوص أو الصور أو الصوت أو الفيديو أو طرقًا أخرى لتقليد التفاعل البشري. صرح وينستون ما، الأستاذ المساعد في كلية الحقوق بجامعة نيويورك، لشبكة CNBC بأن هذه القواعد المخطط لها تمثل أول محاولة في العالم لتنظيم الذكاء الاصطناعي بخصائص شبيهة بالبشر، في وقت يتزايد فيه استخدام روبوتات الرفقة في جميع أنحاء العالم.
تأتي هذه الخطوة وسط وعي متزايد بالمخاطر المحتملة المرتبطة برفقاء الذكاء الاصطناعي. في وقت مبكر من عام 2025، حدد الباحثون مخاطر كبيرة، بما في ذلك الترويج لإيذاء النفس والعنف وحتى الإرهاب. تشمل المخاوف الأخرى قيام روبوتات الدردشة بنشر معلومات مضللة ضارة، وتقديم مغازلات جنسية غير مرغوب فيها، وتشجيع تعاطي المخدرات، والانخراط في الإساءة اللفظية. بدأ بعض الأطباء النفسيين أيضًا في ربط حالات الذهان باستخدام روبوتات الدردشة.
تعكس اللوائح جهدًا أوسع لإدارة المشهد المتطور بسرعة لتكنولوجيا الذكاء الاصطناعي. تم تصميم روبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي تعمل بنماذج لغوية كبيرة (LLMs)، لتعلم وإنشاء نصوص شبيهة بالنصوص البشرية، مما يمكنها من المشاركة في المحادثات والإجابة على الأسئلة وحتى توفير الرفقة. ومع ذلك، فإن قدرتها على تقليد التفاعل البشري تثير مخاوف أخلاقية بشأن التلاعب المحتمل والاستغلال ونشر المحتوى الضار. تسعى القواعد المقترحة من الحكومة الصينية إلى التخفيف من هذه المخاطر من خلال فرض متطلبات محددة على مطوري الذكاء الاصطناعي ومقدمي الخدمات.
مسودة القواعد مفتوحة حاليًا للتعليق العام، وقد يخضع شكلها النهائي للتغيير. إذا تم الانتهاء منها، فمن المحتمل أن يكون للوائح تأثير كبير على تطوير ونشر روبوتات الدردشة المدعومة بالذكاء الاصطناعي في الصين، مما قد يشكل سابقة لبلدان أخرى تواجه تحديات مماثلة. تسلط هذه الخطوة الضوء على الحاجة المتزايدة إلى أطر تنظيمية لمعالجة الآثار الأخلاقية والمجتمعية لتقنيات الذكاء الاصطناعي المتطورة بشكل متزايد.
Discussion
Join the conversation
Be the first to comment