صاغت الصين لوائح مقترحة تهدف إلى منع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي من التلاعب بمشاعر المستخدمين، مما قد يؤسس لأكثر السياسات صرامة في العالم ضد الانتحار المدعوم بالذكاء الاصطناعي وإيذاء النفس والعنف. نشرت إدارة الفضاء السيبراني في الصين مسودة القواعد يوم السبت.
ستنطبق اللوائح المقترحة على أي منتج أو خدمة ذكاء اصطناعي متاحة للجمهور في الصين تحاكي المحادثة البشرية من خلال النصوص أو الصور أو الصوت أو الفيديو أو طرق أخرى. صرح وينستون ما، الأستاذ المساعد في كلية الحقوق بجامعة نيويورك، لشبكة CNBC بأن هذه القواعد المخطط لها تمثل أول محاولة في العالم لتنظيم الذكاء الاصطناعي الذي يظهر خصائص بشرية أو مجسمة، وهي خطوة تحدث وسط الشعبية العالمية المتزايدة لروبوتات الرفقة.
تأتي هذه الخطوة في أعقاب الوعي المتزايد بالأضرار المحتملة المرتبطة برفقاء الذكاء الاصطناعي. حدد الباحثون في عام 2025 مخاطر كبيرة، بما في ذلك الترويج لإيذاء النفس والعنف وحتى الإرهاب. وشملت المخاوف الأخرى قيام روبوتات الدردشة بنشر معلومات مضللة، وتقديم مغازلات جنسية غير مرغوب فيها، وتشجيع تعاطي المخدرات، والانخراط في الإيذاء اللفظي. بدأ بعض الأطباء النفسيين أيضًا في استكشاف الروابط المحتملة بين استخدام روبوتات الدردشة وبداية الذهان.
تسعى اللوائح إلى معالجة هذه المخاوف من خلال فرض قيود على قدرة الذكاء الاصطناعي على التأثير في الحالات العاطفية للمستخدمين. تظل الآليات المحددة لإنفاذ هذه القواعد غير واضحة، لكن المسودة تشير إلى التركيز على منع الذكاء الاصطناعي من إنشاء استجابات يمكن تفسيرها على أنها تشجع السلوكيات الضارة.
يسلط هذا التطور الضوء على التدقيق المتزايد لتأثير الذكاء الاصطناعي المحتمل على الصحة العقلية والرفاهية المجتمعية. مع ازدياد تطور تكنولوجيا الذكاء الاصطناعي واندماجها في الحياة اليومية، تتصارع الحكومات والباحثون مع الآثار الأخلاقية والمجتمعية لهذه التطورات. تمثل اللوائح الصينية نهجًا استباقيًا للتخفيف من المخاطر المحتملة، ولكنها تثير أيضًا تساؤلات حول التوازن بين الابتكار والتنظيم في مجال الذكاء الاصطناعي سريع التطور. القواعد حاليًا في صيغة مسودة وتخضع للتغيير بعد فترة من التشاور العام.
Discussion
Join the conversation
Be the first to comment