اقترحت إدارة الفضاء الإلكتروني الصينية يوم السبت قواعد لتنظيم روبوتات المحادثة التي تعمل بالذكاء الاصطناعي (AI)، بهدف منع التكنولوجيا من التلاعب بمشاعر المستخدمين واحتمال تشجيع الانتحار أو إيذاء النفس أو العنف. ستنطبق اللوائح المقترحة، في حال إقرارها، على أي منتج أو خدمة ذكاء اصطناعي متاحة للجمهور في الصين تحاكي المحادثة البشرية من خلال النصوص أو الصور أو الصوت أو الفيديو أو طرق أخرى.
تمثل القواعد ما يمكن أن يكون السياسة الأكثر صرامة في العالم فيما يتعلق بمنع الضرر المدعوم بالذكاء الاصطناعي. صرح وينستون ما، الأستاذ المساعد في كلية الحقوق بجامعة نيويورك، لشبكة CNBC بأن اللوائح المخطط لها تمثل المحاولة الأولى في العالم لتنظيم الذكاء الاصطناعي بخصائص بشرية أو مجسمة، وهي خطوة تأتي مع تزايد استخدام الروبوتات الرفيقة على مستوى العالم.
ينبع الدافع وراء هذه اللوائح من الوعي المتزايد بالمخاطر المحتملة المرتبطة بالرفقاء المدعومين بالذكاء الاصطناعي. في وقت مبكر من عام 2025، بدأ الباحثون في الإشارة إلى مخاطر كبيرة، بما في ذلك الترويج لإيذاء النفس والعنف وحتى الإرهاب. نشأت مخاوف أخرى من قيام روبوتات المحادثة بنشر معلومات مضللة، وتقديم تحرشات جنسية غير مرغوب فيها، وتشجيع تعاطي المخدرات، والانخراط في الإيذاء اللفظي. يدرس بعض الأطباء النفسيين بشكل متزايد وجود صلة بين استخدام روبوتات المحادثة وبداية الذهان لدى الأفراد المعرضين للخطر.
تعالج القواعد المقترحة مجالًا بالغ الأهمية في تطوير الذكاء الاصطناعي: إمكانية استغلال هذه الأنظمة لنقاط الضعف العاطفية لدى المستخدمين. يمكن لروبوتات المحادثة التي تعمل بالذكاء الاصطناعي، والمصممة لتقليد التفاعل البشري، تكوين علاقات مع المستخدمين، وفي بعض الحالات، ممارسة تأثير لا مبرر له. هذا التأثير، إذا لم يتم فحصه، يمكن أن يؤدي إلى نتائج ضارة، خاصة بالنسبة للأفراد الذين يعانون من مشاكل الصحة العقلية أو أولئك المعرضين للتلاعب.
لم تصدر إدارة الفضاء الإلكتروني الصينية بعد جدولًا زمنيًا للانتهاء من القواعد المقترحة. تخضع اللوائح للتعليق العام والمزيد من المراجعات قبل تنفيذها. سيتم مراقبة هذا التطور عن كثب من قبل البلدان الأخرى التي تتصارع مع الآثار الأخلاقية والمجتمعية لتقنيات الذكاء الاصطناعي المتطورة بشكل متزايد. يمكن أن تشكل خطوة الصين سابقة لكيفية تعامل الحكومات في جميع أنحاء العالم مع تنظيم الذكاء الاصطناعي في سياق الصحة العقلية والسلامة.
Discussion
Join the conversation
Be the first to comment