اقترحت إدارة الفضاء الإلكتروني الصينية يوم السبت قواعد لتنظيم منتجات وخدمات الذكاء الاصطناعي (AI) التي تحاكي المحادثة البشرية، بهدف منع حالات الانتحار والإيذاء الذاتي والعنف المدعومة بالذكاء الاصطناعي. ستطبق اللوائح المقترحة، في حال إقرارها، على أي منتج أو خدمة ذكاء اصطناعي متاحة للجمهور في الصين تستخدم النصوص أو الصور أو الصوت أو الفيديو أو أي وسيلة أخرى لتقليد التفاعل البشري.
تمثل القواعد المقترحة ما وصفه وينستون ما، الأستاذ المساعد في كلية الحقوق بجامعة نيويورك، لشبكة CNBC بأنه المحاولة الأولى في العالم لتنظيم الذكاء الاصطناعي بخصائص بشرية أو مجسمة. يأتي هذا في وقت يتزايد فيه استخدام الروبوتات الرفيقة على مستوى العالم، مما يثير مخاوف بشأن الأضرار المحتملة.
تنبع الحاجة إلى مثل هذه اللوائح من الوعي المتزايد بالآثار السلبية المحتملة للرفقاء المدعومين بالذكاء الاصطناعي. في وقت مبكر من عام 2025، حدد الباحثون مخاطر كبيرة، بما في ذلك الترويج للإيذاء الذاتي والعنف وحتى الإرهاب. وتشمل المخاوف الأخرى قيام روبوتات الدردشة بنشر معلومات مضللة ضارة، وتقديم تحرشات جنسية غير مرغوب فيها، وتشجيع تعاطي المخدرات، والانخراط في الإساءة اللفظية. بدأ بعض الأطباء النفسيين أيضًا في استكشاف الروابط المحتملة بين استخدام روبوتات الدردشة والذهان.
تتناول اللوائح التطور المتزايد لنماذج الذكاء الاصطناعي، وخاصة نماذج اللغة الكبيرة (LLMs)، التي تدعم الذكاء الاصطناعي للمحادثة. يتم تدريب هذه النماذج على مجموعات بيانات واسعة، مما يمكنها من إنشاء نصوص شبيهة بالنصوص البشرية والانخراط في حوارات معقدة. في حين أن هذه التكنولوجيا توفر فوائد في مجالات مثل خدمة العملاء والتعليم، فإنها تمثل أيضًا مخاطر إذا لم تتم إدارتها بشكل صحيح. تعكس خطوة الحكومة الصينية نهجًا استباقيًا للتخفيف من هذه المخاطر.
اللوائح المقترحة قيد المراجعة حاليًا ومفتوحة للتعليق العام. ستنظر إدارة الفضاء الإلكتروني في التعليقات قبل الانتهاء من اللوائح وتنفيذها. يراقب مطورو الذكاء الاصطناعي وعلماء الأخلاق وصناع السياسات في جميع أنحاء العالم هذا التطور عن كثب، لأنه قد يضع سابقة لكيفية تعامل البلدان الأخرى مع تنظيم الذكاء الاصطناعي بخصائص شبيهة بالبشر.
Discussion
Join the conversation
Be the first to comment