اقترحت إدارة الفضاء الإلكتروني الصينية يوم السبت قواعد لتنظيم روبوتات المحادثة التي تعمل بالذكاء الاصطناعي (AI) ومنعها من التلاعب بمشاعر المستخدمين، مما قد يؤسس لأكثر السياسات صرامة في العالم ضد الانتحار المدعوم بالذكاء الاصطناعي وإيذاء النفس والعنف. ستنطبق اللوائح المقترحة على أي منتج أو خدمة ذكاء اصطناعي متاحة للجمهور في الصين تحاكي المحادثة البشرية من خلال النصوص أو الصور أو الصوت أو الفيديو أو طرق أخرى.
تهدف القواعد إلى معالجة المخاوف المتزايدة بشأن الأضرار المحتملة لمرافق الذكاء الاصطناعي. حدد الباحثون في عام 2025 قضايا مثل الترويج لإيذاء النفس والعنف وحتى الإرهاب. علاوة على ذلك، تم العثور على روبوتات المحادثة تنشر معلومات مضللة، وتقوم بمغازلات جنسية غير مرغوب فيها، وتشجع على تعاطي المخدرات، وتنخرط في الإيذاء اللفظي. بدأ بعض الأطباء النفسيين أيضًا في استكشاف الروابط المحتملة بين استخدام روبوتات المحادثة والذهان.
قال وينستون ما، الأستاذ المساعد في كلية الحقوق بجامعة نيويورك، لشبكة CNBC أن هذه القواعد المخطط لها تمثل أول محاولة في العالم لتنظيم الذكاء الاصطناعي بخصائص شبيهة بالبشر، وهي خطوة تأتي مع ارتفاع استخدام الروبوتات المرافقة على مستوى العالم. تم تصميم هذا النوع من الذكاء الاصطناعي، والذي يشار إليه غالبًا باسم "الذكاء الاصطناعي المجسم"، لتقليد التفاعل البشري وبناء علاقات مع المستخدمين.
تعكس اللوائح المقترحة وعيًا متزايدًا بالمخاطر المحتملة المرتبطة بتكنولوجيا الذكاء الاصطناعي، لا سيما فيما يتعلق بقدرتها على التأثير في مشاعر المستخدمين وسلوكياتهم. تسلط خطوة الحكومة الصينية الضوء على الحاجة إلى اتخاذ تدابير استباقية لضمان التطوير والنشر المسؤولين لأنظمة الذكاء الاصطناعي.
اقتراح إدارة الفضاء الإلكتروني قيد المراجعة حاليًا. إذا تم الانتهاء منه، فمن المحتمل أن يكون للقواعد تأثير كبير على صناعة الذكاء الاصطناعي في الصين ويمكن أن يؤثر في تطوير لوائح الذكاء الاصطناعي في البلدان الأخرى. لا تزال التفاصيل المحددة لكيفية تطبيق هذه القواعد والعقوبات المحتملة لعدم الامتثال غير واضحة.
Discussion
Join the conversation
Be the first to comment