L'entrepreneur technologique Siqi Chen a lancé samedi un plugin open source appelé Humanizer, conçu pour atténuer les signes révélateurs de texte généré par l'IA dans l'assistant Claude Code AI d'Anthropic. Le plugin, disponible sur GitHub, demande au modèle d'IA d'éviter 24 schémas de langage et de formatage identifiés par les éditeurs de Wikipédia comme indicateurs de contenu produit par un chatbot.
Le plugin Humanizer s'appuie sur un guide compilé par WikiProject AI Cleanup, un groupe de bénévoles de Wikipédia dédié à l'identification et au signalement d'articles générés par l'IA depuis fin 2023. Fondé par l'éditeur français de Wikipédia, Ilyas Lebleu, le projet a étiqueté plus de 500 articles pour examen et publié une liste formelle des schémas fréquemment observés en août 2025. Ces schémas, désormais intégrés au plugin de Chen, vont des tendances de formulation spécifiques aux particularités de formatage caractéristiques que l'on trouve souvent dans les textes générés par l'IA.
Chen a souligné l'importance du travail de Wikipédia dans un message sur X, déclarant : "C'est vraiment pratique que Wikipédia ait rassemblé une liste détaillée des signes de l'écriture de l'IA. À tel point que vous pouvez simplement dire à votre LLM de ne pas faire ça." Le plugin lui-même est un fichier de compétences pour Claude Code, l'assistant de codage en ligne de commande d'Anthropic, et consiste en un fichier au format Markdown.
L'essor de l'IA générative a posé des problèmes de vérification du contenu, les textes générés par l'IA étant parfois difficiles à distinguer des documents rédigés par des humains. Cela a suscité des inquiétudes quant au potentiel de désinformation et à l'érosion de la confiance dans les sources d'information en ligne. Wikipédia, en tant qu'encyclopédie collaborative, a été particulièrement vulnérable, ce qui a incité à la création de WikiProject AI Cleanup pour lutter contre l'afflux d'articles générés par l'IA.
Le développement d'outils comme Humanizer reflète un effort croissant pour relever ces défis en rendant les résultats de l'IA plus transparents et moins trompeurs. En identifiant et en atténuant les marqueurs stylistiques des textes générés par l'IA, les développeurs espèrent favoriser une plus grande responsabilisation et encourager une utilisation responsable de la technologie de l'IA. Lundi, le plugin Humanizer avait recueilli plus de 1 600 étoiles sur GitHub, ce qui indique un intérêt et une adoption importants au sein de la communauté des développeurs. L'impact à long terme de ces outils sur le paysage évolutif du contenu généré par l'IA reste à déterminer.
Discussion
Join the conversation
Be the first to comment