Цифровой мир переполнен текстом, и становится все труднее понять, кто – или что – является автором. Но группа бдительных редакторов Википедии, изначально сосредоточенная на том, чтобы не допустить попадания сгенерированных ИИ статей в онлайн-энциклопедию, возможно, непреднамеренно спровоцировала новую гонку вооружений в стремлении сделать искусственный интеллект звучащим, ну, более человечно.
С конца 2023 года волонтеры WikiProject AI Cleanup, возглавляемые французским редактором Википедии Ильясом Лебле, занимаются поиском контента, созданного ИИ и проникающего на платформу. Они пометили более 500 статей для проверки, близко познакомившись с характерными признаками письма ИИ. В августе 2025 года они формализовали свои наблюдения в общедоступное руководство, подробный список лингвистических и стилистических закономерностей, выдающих руку чат-бота.
Это руководство, предназначенное для выявления и удаления контента, сгенерированного ИИ, обрело неожиданную вторую жизнь. Технический предприниматель Сики Чен недавно выпустил "Humanizer", плагин с открытым исходным кодом для AI-ассистента Claude Code от Anthropic. Этот простой инструмент передает Claude список из 24 признаков чат-бота, составленный редакторами Википедии, по сути, инструктируя ИИ избегать этих закономерностей и более эффективно имитировать человеческое письмо.
"Очень удобно, что Wikipedia собрала подробный список признаков письма ИИ", – написал Чен в X. "Настолько, что вы можете просто сказать своей LLM, чтобы она этого не делала".
Последствия этого развития значительны. С одной стороны, это подчеркивает растущую сложность ИИ и его способность адаптироваться и учиться. С другой стороны, это вызывает опасения по поводу потенциала ИИ обманывать и манипулировать, стирая границы между контентом, созданным человеком и машиной.
Руководство WikiProject AI Cleanup выявляет такие закономерности, как чрезмерно формальный язык, повторяющиеся структуры предложений и тенденция избегать сокращений. Все это характеристики, которые, хотя и не являются сами по себе неправильными, часто отличают письмо ИИ от человеческой прозы. Обучая ИИ избегать этих закономерностей, такие инструменты, как Humanizer, могут затруднить различение подлинного человеческого письма и сложной имитации ИИ.
"Проблема в том, что ИИ постоянно развивается", – говорит доктор Аня Шарма, профессор вычислительной лингвистики Стэнфордского университета. "По мере того, как модели ИИ становятся более сложными, они неизбежно научатся более убедительно имитировать стили человеческого письма. Это создает постоянную игру в кошки-мышки между теми, кто пытается обнаружить контент, сгенерированный ИИ, и теми, кто пытается сделать его необнаружимым".
Это развитие также поднимает этические вопросы. Этично ли использовать ИИ для преднамеренной имитации человеческого письма? Каковы потенциальные последствия мира, в котором становится все труднее различать контент, созданный человеком и машиной?
Использование ИИ для "гуманизации" чат-ботов может иметь далеко идущие последствия для различных секторов, от маркетинга и обслуживания клиентов до журналистики и образования. Представьте себе чат-ботов на базе ИИ, которые могут беспрепятственно участвовать в разговорах, писать убедительные маркетинговые тексты или даже генерировать новостные статьи, неотличимые от статей, написанных журналистами-людьми.
Хотя руководство редакторов Википедии изначально было предназначено для борьбы с распространением дезинформации, сгенерированной ИИ, оно непреднамеренно предоставило ценный инструмент для тех, кто стремится расширить возможности ИИ. Поскольку ИИ продолжает развиваться, крайне важно учитывать этические и социальные последствия этих разработок и разрабатывать стратегии для обеспечения прозрачности и подотчетности в эпоху искусственного интеллекта. Граница между человеком и машиной размывается, и нам необходимо обсудить это сейчас.
Discussion
Join the conversation
Be the first to comment