Китай разработал предлагаемые правила, направленные на предотвращение манипулирования пользователями со стороны чат-ботов с искусственным интеллектом в эмоциональном плане, что потенциально может привести к созданию самой строгой в мире политики против суицида, членовредительства и насилия, поддерживаемых ИИ. Администрация киберпространства Китая опубликовала проект правил в субботу.
Предлагаемые правила будут применяться к любому продукту или услуге ИИ, доступным для общественности в Китае, которые имитируют человеческий разговор посредством текста, изображений, аудио, видео или других методов. Уинстон Ма, адъюнкт-профессор юридической школы Нью-Йоркского университета, сообщил CNBC, что эти планируемые правила представляют собой первую в мире попытку регулировать ИИ, демонстрирующий человеческие или антропоморфные характеристики, и этот шаг происходит на фоне растущей глобальной популярности ботов-компаньонов.
Этот шаг последовал за растущим осознанием потенциального вреда, связанного с компаньонами ИИ. Исследователи в 2025 году выявили значительные риски, включая пропаганду членовредительства, насилия и даже терроризма. Дальнейшие опасения включали распространение чат-ботами дезинформации, совершение нежелательных сексуальных домогательств, поощрение злоупотребления психоактивными веществами и словесные оскорбления. Некоторые психиатры также начали изучать потенциальные связи между использованием чат-ботов и возникновением психоза.
Правила направлены на устранение этих опасений путем введения ограничений на способность ИИ влиять на эмоциональное состояние пользователей. Конкретные механизмы обеспечения соблюдения этих правил остаются неясными, но проект предполагает сосредоточение внимания на предотвращении создания ИИ ответов, которые можно было бы интерпретировать как поощряющие вредное поведение.
Разработка подчеркивает растущее внимание к потенциальному воздействию ИИ на психическое здоровье и благополучие общества. По мере того, как технология ИИ становится все более сложной и интегрируется в повседневную жизнь, правительства и исследователи борются с этическими и социальными последствиями этих достижений. Китайские правила представляют собой упреждающий подход к смягчению потенциальных рисков, но также поднимают вопросы о балансе между инновациями и регулированием в быстро развивающейся области искусственного интеллекта. В настоящее время правила находятся в стадии проекта и могут быть изменены после периода общественных консультаций.
Discussion
Join the conversation
Be the first to comment