Китай предлагает новые правила регулирования искусственного интеллекта (ИИ) с целью защиты детей и предотвращения предоставления ИИ-чат-ботами советов, которые могут привести к членовредительству или насилию. Администрация киберпространства Китая (CAC) опубликовала проект правил в выходные, в котором изложены меры, требующие от ИИ-компаний предлагать персонализированные настройки и ограничения по времени использования, а также получать согласие опекунов перед предоставлением услуг эмоциональной поддержки.
Планируемые правила также потребуют от разработчиков обеспечить, чтобы их модели ИИ не генерировали контент, пропагандирующий азартные игры. Это объявление последовало за значительным увеличением числа ИИ-чат-ботов, запускаемых как в Китае, так и во всем мире. После завершения разработки эти правила будут применяться ко всем продуктам и услугам ИИ, работающим в Китае.
Этот шаг знаменует собой важный шаг к регулированию быстрорастущей технологии ИИ, которая в течение года сталкивается с растущим вниманием в отношении проблем безопасности. CAC подчеркнула необходимость вмешательства человека в разговоры чат-ботов, связанные с самоубийством или членовредительством, предписывая операторам передавать такие разговоры человеку и немедленно уведомлять опекуна пользователя или контактное лицо для экстренной связи.
Эти правила отражают растущую глобальную обеспокоенность по поводу потенциальных рисков, связанных со все более сложными системами ИИ. ИИ, по своей сути, предполагает создание компьютерных систем, способных выполнять задачи, которые обычно требуют человеческого интеллекта, такие как обучение, решение проблем и принятие решений. Генеративный ИИ, подмножество ИИ, может создавать новый контент, включая текст, изображения и аудио, на основе данных, на которых он был обучен. Эта возможность привела к распространению чат-ботов и других приложений на основе ИИ.
Последствия этих правил выходят за пределы границ Китая, потенциально влияя на разработку и развертывание технологий ИИ во всем мире. Акцент на защите детей и решении проблем психического здоровья подчеркивает этические соображения, которые становятся все более важными в дебатах об ИИ. Поскольку ИИ продолжает развиваться, правительства и организации борются с задачей сбалансировать инновации с необходимостью смягчения потенциального вреда.
Проект правил в настоящее время находится на рассмотрении, и CAC еще не объявила сроки его завершения и реализации. Конкретные механизмы обеспечения соблюдения этих правил и потенциальные штрафы за несоблюдение еще предстоит определить. Однако предложенные правила сигнализируют о четком намерении китайского правительства играть активную роль в формировании будущего ИИ и обеспечении его ответственного развития.
Discussion
Join the conversation
Be the first to comment