No sábado, o empreendedor de tecnologia Siqi Chen lançou um plugin de código aberto chamado Humanizer, projetado para mitigar os sinais reveladores de texto gerado por IA no assistente de IA Claude Code da Anthropic. O plugin, disponível no GitHub, instrui o modelo de IA a evitar 24 padrões de linguagem e formatação identificados por editores da Wikipédia como indicadores de conteúdo produzido por chatbot.
O plugin Humanizer aproveita um guia compilado pelo WikiProject AI Cleanup, um grupo de voluntários da Wikipédia dedicado a identificar e sinalizar artigos gerados por IA desde o final de 2023. Fundado pelo editor francês da Wikipédia Ilyas Lebleu, o projeto marcou mais de 500 artigos para revisão e publicou uma lista formal de padrões frequentemente observados em agosto de 2025. Esses padrões, agora integrados ao plugin de Chen, variam de tendências específicas de fraseado a peculiaridades características de formatação frequentemente encontradas em texto gerado por IA.
Chen destacou a importância do trabalho da Wikipédia em uma postagem no X, afirmando: "É muito útil que a Wikipédia tenha compilado uma lista detalhada de sinais de escrita de IA. Tanto que você pode simplesmente dizer ao seu LLM para não fazer isso." O plugin em si é um arquivo de habilidade para Claude Code, o assistente de codificação baseado em terminal da Anthropic, e consiste em um arquivo formatado em Markdown.
A ascensão da IA generativa apresentou desafios na verificação de conteúdo, com texto gerado por IA às vezes difícil de distinguir de material escrito por humanos. Isso levou a preocupações sobre o potencial de desinformação e a erosão da confiança em fontes de informação online. A Wikipédia, como uma enciclopédia colaborativa, tem sido particularmente vulnerável, levando à criação do WikiProject AI Cleanup para combater o influxo de artigos gerados por IA.
O desenvolvimento de ferramentas como o Humanizer reflete um esforço crescente para enfrentar esses desafios, tornando os resultados da IA mais transparentes e menos enganosos. Ao identificar e mitigar os marcadores estilísticos de texto gerado por IA, os desenvolvedores esperam promover maior responsabilidade e incentivar o uso responsável da tecnologia de IA. Até segunda-feira, o plugin Humanizer havia conquistado mais de 1.600 estrelas no GitHub, indicando interesse e adoção significativos na comunidade de desenvolvedores. O impacto a longo prazo de tais ferramentas no cenário em evolução do conteúdo gerado por IA ainda está por ser visto.
Discussion
Join the conversation
Be the first to comment