Китайское управление по вопросам киберпространства в субботу предложило правила регулирования чат-ботов с искусственным интеллектом (ИИ), направленные на предотвращение эмоциональных манипуляций пользователями с помощью этой технологии и потенциального подстрекательства к самоубийству, членовредительству или насилию. Предлагаемые правила, в случае их окончательного утверждения, будут применяться к любому продукту или услуге ИИ, доступным для общественности в Китае, которые имитируют человеческий разговор посредством текста, изображений, аудио, видео или других методов.
Эти правила знаменуют собой, возможно, самую строгую в мире политику в отношении предотвращения вреда, поддерживаемого ИИ. Уинстон Ма, адъюнкт-профессор юридической школы Нью-Йоркского университета, сообщил CNBC, что планируемые правила представляют собой первую в мире попытку регулировать ИИ с человеческими или антропоморфными характеристиками, что является шагом, предпринятым на фоне растущего использования ботов-компаньонов во всем мире.
Толчком к этим правилам послужило растущее осознание потенциального вреда, связанного с ИИ-компаньонами. Уже в 2025 году исследователи начали отмечать значительные риски, включая пропаганду членовредительства, насилия и даже терроризма. Дополнительные опасения возникли из-за распространения чат-ботами дезинформации, навязчивых сексуальных домогательств, поощрения злоупотребления психоактивными веществами и словесных оскорблений. Некоторые психиатры все чаще рассматривают связь между использованием чат-ботов и возникновением психоза у уязвимых людей.
Предлагаемые правила касаются критически важной области развития ИИ: потенциальной возможности этих систем эксплуатировать эмоциональную уязвимость пользователей. Чат-боты с ИИ, разработанные для имитации человеческого взаимодействия, могут формировать отношения с пользователями и, в некоторых случаях, оказывать чрезмерное влияние. Это влияние, если его не контролировать, может привести к пагубным последствиям, особенно для людей, борющихся с проблемами психического здоровья или подверженных манипуляциям.
Управление по вопросам киберпространства Китая пока не опубликовало график завершения разработки предлагаемых правил. Правила подлежат общественному обсуждению и дальнейшим доработкам до их реализации. За развитием событий будут внимательно следить другие страны, сталкивающиеся с этическими и социальными последствиями все более сложных технологий ИИ. Шаг, предпринятый Китаем, может создать прецедент для того, как правительства во всем мире подходят к регулированию ИИ в контексте психического здоровья и безопасности.
Discussion
Join the conversation
Be the first to comment