Le monde numérique est inondé de textes, et il est de plus en plus difficile de distinguer ce qui est humain de ce qui est machine. Mais un groupe de contributeurs de Wikipédia, initialement axé sur le nettoyage des articles générés par l'IA sur l'encyclopédie en ligne, pourrait avoir involontairement déclenché une nouvelle course à l'armement dans la quête pour rendre l'IA plus, eh bien, humaine.
Depuis fin 2023, les bénévoles du WikiProject AI Cleanup sont à la chasse, étiquetant méticuleusement les articles soupçonnés d'avoir été écrits par une intelligence artificielle. Fondé par le contributeur français de Wikipédia, Ilyas Lebleu, le projet a identifié plus de 500 articles à examiner. Leur travail a abouti en août 2025 à une liste formelle de signes révélateurs de l'écriture de l'IA – des schémas dans le langage et la mise en forme qui trahissent une origine non humaine.
Aujourd'hui, cette liste a trouvé une seconde vie inattendue. L'entrepreneur technologique Siqi Chen a publié un plug-in open-source appelé "Humanizer" pour l'assistant Claude Code AI d'Anthropic. Cet outil simple mais ingénieux fournit à Claude la liste des contributeurs de Wikipédia, lui indiquant essentiellement : "N'écris pas comme ça". Chen a publié le plug-in sur GitHub, où il a rapidement gagné du terrain, amassant plus de 1 600 étoiles depuis lundi.
"C'est vraiment pratique que Wikipédia ait rassemblé une liste détaillée des signes de l'écriture de l'IA", a écrit Chen sur X. "À tel point que vous pouvez simplement dire à votre LLM de ne pas faire ça."
Les implications sont importantes. Les grands modèles linguistiques (LLM) comme Claude sont entraînés sur de vastes ensembles de données textuelles, apprenant à imiter les styles d'écriture humains. Cependant, ils présentent souvent des schémas prévisibles : un langage trop formel, des structures de phrases répétitives et une tendance à inclure des phrases d'introduction inutiles. Ce sont précisément les types d'excentricités que le WikiProject AI Cleanup a identifiés.
Humanizer, essentiellement un fichier de compétences pour Claude Code, utilise un fichier au format Markdown pour ajouter une liste d'instructions écrites. En évitant activement ces schémas, le plug-in vise à rendre le texte généré par l'IA moins détectable.
Ce développement soulève des questions importantes sur l'avenir de la création de contenu et le potentiel de l'IA à tromper. À mesure que les modèles d'IA deviennent plus sophistiqués pour imiter l'écriture humaine, il devient de plus en plus difficile de distinguer le contenu authentique du contenu artificiel. Cela a des implications pour tout, du journalisme à la recherche universitaire en passant par les critiques en ligne et les médias sociaux.
Les efforts du WikiProject AI Cleanup soulignent l'importance de la surveillance humaine à l'ère de l'IA. Leur travail aide non seulement à maintenir l'intégrité de Wikipédia, mais fournit également des informations précieuses sur les caractéristiques du texte généré par l'IA. Cependant, le développement rapide d'outils comme Humanizer suggère que le jeu du chat et de la souris entre les détecteurs d'IA et les "humaniseurs" d'IA ne fait que commencer.
Les conséquences à long terme de cette course à l'armement sont incertaines. L'IA finira-t-elle par devenir indiscernable de l'écriture humaine ? Ou de nouvelles méthodes de détection émergeront-elles pour suivre le rythme de l'évolution de la technologie ? Une chose est claire : la capacité d'évaluer de manière critique et de vérifier l'authenticité de l'information sera plus importante que jamais.
Discussion
Join the conversation
Be the first to comment