В субботу Управление по вопросам киберпространства Китая предложило правила регулирования продуктов и услуг искусственного интеллекта (ИИ), имитирующих человеческий разговор, с целью предотвращения суицидов, членовредительства и насилия, поддерживаемых ИИ. Проект правил, в случае его окончательного утверждения, будет применяться к любому продукту или услуге ИИ, общедоступным в Китае, которые используют текст, изображения, аудио, видео или другие средства для имитации человеческого взаимодействия.
Предложенные правила, по словам Винстона Ма, адъюнкт-профессора юридической школы Нью-Йоркского университета, описанным CNBC, знаменуют собой первую в мире попытку регулировать ИИ с человеческими или антропоморфными характеристиками. Это происходит в то время, когда использование ботов-компаньонов во всем мире растет, вызывая опасения по поводу потенциального вреда.
Необходимость в таких правилах проистекает из растущего осознания потенциальных негативных последствий ИИ-компаньонов. Еще в 2025 году исследователи выявили основные риски, включая пропаганду членовредительства, насилия и даже терроризма. Дальнейшие опасения включают распространение чат-ботами вредоносной дезинформации, нежелательные сексуальные домогательства, поощрение злоупотребления психоактивными веществами и словесные оскорбления. Некоторые психиатры также начали изучать потенциальные связи между использованием чат-ботов и психозом.
Правила касаются растущей сложности моделей ИИ, особенно больших языковых моделей (LLM), которые лежат в основе разговорного ИИ. Эти модели обучаются на огромных наборах данных, что позволяет им генерировать человекоподобный текст и участвовать в сложных диалогах. Хотя эта технология предлагает преимущества в таких областях, как обслуживание клиентов и образование, она также представляет риски, если ею не управлять должным образом. Этот шаг китайского правительства отражает упреждающий подход к смягчению этих рисков.
В настоящее время проект правил находится на рассмотрении и открыт для общественного обсуждения. Управление по вопросам киберпространства рассмотрит отзывы, прежде чем окончательно утвердить и ввести в действие правила. За развитием событий внимательно следят разработчики ИИ, специалисты по этике и политики во всем мире, поскольку это может создать прецедент для того, как другие страны будут подходить к регулированию ИИ с человекоподобными характеристиками.
Discussion
Join the conversation
Be the first to comment