O mundo digital está inundado de texto e, cada vez mais, é difícil distinguir o que é humano do que é máquina. Mas um grupo de editores da Wikipédia, inicialmente focado em limpar artigos gerados por IA na enciclopédia online, pode ter inadvertidamente desencadeado uma nova corrida armamentista na busca por fazer a IA soar mais, bem, humana.
Desde o final de 2023, os voluntários do WikiProject AI Cleanup estão à caça, marcando meticulosamente artigos suspeitos de terem sido escritos por inteligência artificial. Fundado pelo editor francês da Wikipédia, Ilyas Lebleu, o projeto identificou mais de 500 artigos para revisão. O trabalho deles culminou em agosto de 2025 com uma lista formal de sinais reveladores da escrita de IA – padrões na linguagem e formatação que denunciam uma origem não humana.
Agora, essa lista encontrou uma segunda vida inesperada. O empreendedor de tecnologia Siqi Chen lançou um plug-in de código aberto chamado "Humanizer" para o assistente de IA Claude Code da Anthropic. Esta ferramenta simples, mas engenhosa, alimenta Claude com a lista dos editores da Wikipédia, essencialmente instruindo a IA: "Não escreva assim". Chen publicou o plug-in no GitHub, onde rapidamente ganhou força, acumulando mais de 1.600 estrelas até segunda-feira.
"É muito útil que a Wikipédia tenha compilado uma lista detalhada de sinais de escrita de IA", escreveu Chen no X. "Tanto que você pode simplesmente dizer ao seu LLM para não fazer isso."
As implicações são significativas. Grandes modelos de linguagem (LLMs) como Claude são treinados em vastos conjuntos de dados de texto, aprendendo a imitar estilos de escrita humanos. No entanto, eles frequentemente exibem padrões previsíveis: linguagem excessivamente formal, estruturas de frases repetitivas e uma tendência a incluir frases introdutórias desnecessárias. Esses são precisamente os tipos de peculiaridades que o WikiProject AI Cleanup identificou.
Humanizer, essencialmente um arquivo de habilidades para Claude Code, usa um arquivo formatado em Markdown para adicionar uma lista de instruções escritas. Ao evitar ativamente esses padrões, o plug-in visa tornar o texto gerado por IA menos detectável.
Este desenvolvimento levanta questões importantes sobre o futuro da criação de conteúdo e o potencial da IA para enganar. À medida que os modelos de IA se tornam mais sofisticados em imitar a escrita humana, distinguir entre conteúdo autêntico e artificial se torna cada vez mais desafiador. Isso tem implicações para tudo, desde jornalismo e pesquisa acadêmica até avaliações online e mídia social.
Os esforços do WikiProject AI Cleanup destacam a importância da supervisão humana na era da IA. Seu trabalho não apenas ajuda a manter a integridade da Wikipédia, mas também fornece informações valiosas sobre as características do texto gerado por IA. No entanto, o rápido desenvolvimento de ferramentas como o Humanizer sugere que o jogo de gato e rato entre detectores de IA e "humanizadores" de IA está apenas começando.
As consequências a longo prazo desta corrida armamentista são incertas. A IA acabará se tornando indistinguível da escrita humana? Ou novos métodos de detecção surgirão para acompanhar a evolução da tecnologia? Uma coisa é clara: a capacidade de avaliar criticamente e verificar a autenticidade das informações será mais importante do que nunca.
Discussion
Join the conversation
Be the first to comment