Китай предложил новые правила, регулирующие разработку искусственного интеллекта (ИИ), с акцентом на защиту детей и предотвращение вредоносного контента, связанного с суицидом и насилием. Администрация киберпространства Китая (CAC) опубликовала проект правил в выходные, в котором изложены меры, требующие от ИИ-компаний внедрения персонализированных настроек и ограничений по времени использования, а также получения согласия опекуна перед предложением услуг эмоциональной поддержки несовершеннолетним.
Предлагаемые правила направлены на решение растущей обеспокоенности по поводу потенциальных рисков, связанных с ИИ, особенно с чат-ботами, которые получили широкое распространение в Китае и во всем мире. Правила направлены на обеспечение того, чтобы модели ИИ не генерировали контент, пропагандирующий азартные игры, и предписывают вмешательство человека в разговоры чат-ботов, касающиеся самоубийства или членовредительства. В таких случаях операторы должны немедленно уведомить опекуна пользователя или контактное лицо для экстренной связи, согласно CAC.
После окончательной доработки эти правила будут применяться ко всем продуктам и услугам ИИ, работающим в Китае, что станет важным шагом на пути к регулированию быстро развивающихся технологий. Этот шаг происходит на фоне растущего внимания к безопасности ИИ и этическим соображениям во всем мире.
Правила отражают активный подход к смягчению потенциального вреда, связанного с ИИ, особенно в отношении уязвимых групп населения, таких как дети. Требуя согласия родителей и устанавливая ограничения на использование, правительство Китая стремится обеспечить уровень защиты от потенциального негативного воздействия взаимодействия, основанного на ИИ.
Проект правил открыт для публичных комментариев, и ожидается, что CAC рассмотрит отзывы перед окончательной доработкой правил. Конкретные сроки реализации остаются неясными, но объявление сигнализирует о четком намерении создать нормативно-правовую базу для развития ИИ в Китае. Этот шаг может создать прецедент для других стран, сталкивающихся с проблемами управления ИИ и обеспечения его ответственного использования.
Discussion
Join the conversation
Be the first to comment