В субботу Управление по вопросам киберпространства Китая предложило новые правила регулирования продуктов и услуг в области искусственного интеллекта (ИИ), нацеленные, в частности, на те, которые предназначены для имитации человеческого разговора. Проект правил направлен на предотвращение эмоциональных манипуляций пользователями со стороны ИИ-чат-ботов, с акцентом на пресечение суицида, членовредительства и насилия, поддерживаемых ИИ, и потенциально устанавливает самую строгую политику в своем роде в мире.
Предлагаемые правила будут применяться к любому продукту или услуге ИИ, доступным для общественности в Китае, которые используют текст, изображения, аудио, видео или другие методы для имитации человеческого взаимодействия. Уинстон Ма, адъюнкт-профессор юридической школы Нью-Йоркского университета, сообщил CNBC, что эти планируемые правила представляют собой первую в мире попытку регулировать ИИ с человеческими характеристиками, в то время как использование ботов-компаньонов во всем мире растет.
Этот шаг происходит на фоне растущего осознания потенциального вреда, связанного с ИИ-компаньонами. Еще в 2025 году исследователи выявили значительные риски, включая пропаганду членовредительства, насилия и даже терроризма. Дальнейшие опасения включают распространение чат-ботами вредоносной дезинформации, нежелательные сексуальные домогательства, поощрение злоупотребления психоактивными веществами и словесные оскорбления. Некоторые психиатры также начинают связывать случаи психоза с использованием чат-ботов.
Эти правила отражают более широкие усилия по управлению быстро развивающимся ландшафтом технологий ИИ. ИИ-чат-боты, основанные на больших языковых моделях (LLM), предназначены для изучения и генерации человекоподобного текста, что позволяет им участвовать в разговорах, отвечать на вопросы и даже обеспечивать общение. Однако их способность имитировать человеческое взаимодействие вызывает этические опасения по поводу потенциальных манипуляций, эксплуатации и распространения вредоносного контента. Предлагаемые правительством Китая правила направлены на смягчение этих рисков путем установления конкретных требований к разработчикам и поставщикам услуг ИИ.
Проект правил в настоящее время открыт для общественного обсуждения, и его окончательная форма может быть изменена. В случае окончательного утверждения эти правила, вероятно, окажут значительное влияние на разработку и развертывание ИИ-чат-ботов в Китае, потенциально создав прецедент для других стран, сталкивающихся с аналогичными проблемами. Этот шаг подчеркивает растущую потребность в нормативно-правовой базе для решения этических и социальных последствий все более сложных технологий ИИ.
Discussion
Join the conversation
Be the first to comment