Цифровой мир переполнен текстом, и становится все труднее отличить, что написано человеком, а что машиной. Но группа редакторов Википедии, изначально сосредоточенная на очистке онлайн-энциклопедии от статей, сгенерированных ИИ, возможно, непреднамеренно спровоцировала новую гонку вооружений в стремлении сделать ИИ более, ну, человечным.
С конца 2023 года волонтеры WikiProject AI Cleanup занимаются поиском и тщательной маркировкой статей, предположительно написанных искусственным интеллектом. Проект, основанный французским редактором Википедии Ильясом Лебле, выявил более 500 статей для проверки. Их работа завершилась в августе 2025 года составлением официального списка характерных признаков ИИ-письма – закономерностей в языке и форматировании, выдающих нечеловеческое происхождение.
Теперь этот список обрел неожиданную вторую жизнь. Технологический предприниматель Сики Чен выпустил плагин с открытым исходным кодом под названием "Humanizer" для AI-ассистента Claude Code от Anthropic. Этот простой, но гениальный инструмент передает Claude список редакторов Википедии, по сути, инструктируя ИИ: "Не пиши так". Чен опубликовал плагин на GitHub, где он быстро набрал популярность, собрав более 1600 звезд по состоянию на понедельник.
"Очень удобно, что Wikipedia собрала подробный список признаков ИИ-письма", – написал Чен в X. "Настолько, что вы можете просто сказать своей LLM, чтобы она этого не делала".
Последствия значительны. Большие языковые модели (LLM), такие как Claude, обучаются на огромных наборах текстовых данных, учась имитировать стили человеческого письма. Однако они часто демонстрируют предсказуемые закономерности: чрезмерно формальный язык, повторяющиеся структуры предложений и тенденцию к включению ненужных вводных фраз. Это именно те особенности, которые выявил WikiProject AI Cleanup.
Humanizer, по сути, файл навыков для Claude Code, использует файл в формате Markdown для добавления списка письменных инструкций. Активно избегая этих закономерностей, плагин стремится сделать текст, сгенерированный ИИ, менее обнаруживаемым.
Это развитие поднимает важные вопросы о будущем создания контента и потенциале ИИ для обмана. По мере того как модели ИИ становятся все более изощренными в имитации человеческого письма, различать подлинный и искусственный контент становится все сложнее. Это имеет последствия для всего: от журналистики и академических исследований до онлайн-обзоров и социальных сетей.
Усилия WikiProject AI Cleanup подчеркивают важность человеческого надзора в эпоху ИИ. Их работа не только помогает поддерживать целостность Википедии, но и предоставляет ценную информацию о характеристиках текста, сгенерированного ИИ. Однако быстрое развитие таких инструментов, как Humanizer, предполагает, что игра в кошки-мышки между детекторами ИИ и "гуманизаторами" ИИ только начинается.
Долгосрочные последствия этой гонки вооружений неопределенны. Станет ли ИИ в конечном итоге неотличимым от человеческого письма? Или появятся новые методы обнаружения, чтобы не отставать от развивающихся технологий? Ясно одно: способность критически оценивать и проверять подлинность информации будет важна как никогда.
Discussion
Join the conversation
Be the first to comment