В субботу технологический предприниматель Сики Чен выпустил плагин с открытым исходным кодом под названием Humanizer, предназначенный для смягчения характерных признаков текста, сгенерированного ИИ, в AI-ассистенте Claude Code от Anthropic. Плагин, доступный на GitHub, инструктирует модель ИИ избегать 24 языковых и форматированных паттернов, определенных редакторами Википедии как индикаторы контента, созданного чат-ботом.
Плагин Humanizer использует руководство, составленное WikiProject AI Cleanup, группой волонтеров Википедии, занимающихся выявлением и маркировкой статей, сгенерированных ИИ, с конца 2023 года. Проект, основанный французским редактором Википедии Ильясом Леблё, пометил более 500 статей для проверки и опубликовал официальный список часто встречающихся паттернов в августе 2025 года. Эти паттерны, теперь интегрированные в плагин Чена, варьируются от специфических речевых оборотов до характерных особенностей форматирования, часто встречающихся в текстах, сгенерированных ИИ.
Чен подчеркнул значимость работы Википедии в посте на X, заявив: "Очень удобно, что Википедия собрала подробный список признаков ИИ-письма. Настолько, что вы можете просто сказать своей LLM этого не делать". Сам плагин представляет собой файл навыков для Claude Code, терминального ассистента для кодирования от Anthropic, и состоит из файла в формате Markdown.
Рост генеративного ИИ создал проблемы в проверке контента, поскольку текст, сгенерированный ИИ, иногда трудно отличить от материала, написанного человеком. Это привело к опасениям по поводу потенциальной дезинформации и эрозии доверия к онлайн-источникам информации. Википедия, как совместная энциклопедия, оказалась особенно уязвимой, что побудило к созданию WikiProject AI Cleanup для борьбы с наплывом статей, сгенерированных ИИ.
Разработка таких инструментов, как Humanizer, отражает растущие усилия по решению этих проблем путем повышения прозрачности и уменьшения обманчивости результатов работы ИИ. Выявляя и смягчая стилистические маркеры текста, сгенерированного ИИ, разработчики надеются способствовать большей подотчетности и поощрять ответственное использование технологии ИИ. По состоянию на понедельник плагин Humanizer набрал более 1600 звезд на GitHub, что свидетельствует о значительном интересе и принятии в сообществе разработчиков. Долгосрочное влияние таких инструментов на развивающийся ландшафт контента, сгенерированного ИИ, еще предстоит увидеть.
Discussion
Join the conversation
Be the first to comment