El mundo digital está inundado de texto y, cada vez más, es difícil distinguir lo que es humano de lo que es máquina. Pero un grupo de editores de Wikipedia, inicialmente centrado en limpiar artículos generados por IA en la enciclopedia en línea, puede haber desatado inadvertidamente una nueva carrera armamentista en la búsqueda de hacer que la IA suene más, bueno, humana.
Desde finales de 2023, los voluntarios de WikiProject AI Cleanup han estado a la caza, etiquetando meticulosamente los artículos sospechosos de haber sido escritos por inteligencia artificial. Fundado por el editor francés de Wikipedia Ilyas Lebleu, el proyecto ha identificado más de 500 artículos para su revisión. Su trabajo culminó en agosto de 2025 con una lista formal de signos reveladores de la escritura de la IA: patrones en el lenguaje y el formato que delatan un origen no humano.
Ahora, esa lista ha encontrado una inesperada segunda vida. El emprendedor tecnológico Siqi Chen ha lanzado un plug-in de código abierto llamado "Humanizer" para el asistente de IA Claude Code de Anthropic. Esta herramienta simple pero ingeniosa alimenta a Claude con la lista de los editores de Wikipedia, esencialmente instruyendo a la IA: "No escribas así". Chen publicó el plug-in en GitHub, donde rápidamente ha ganado tracción, acumulando más de 1600 estrellas hasta el lunes.
"Es realmente útil que Wikipedia haya recopilado una lista detallada de signos de escritura de IA", escribió Chen en X. "Tanto es así que puedes simplemente decirle a tu LLM que no haga eso".
Las implicaciones son significativas. Los modelos de lenguaje grandes (LLM) como Claude se entrenan con vastos conjuntos de datos de texto, aprendiendo a imitar los estilos de escritura humanos. Sin embargo, a menudo exhiben patrones predecibles: lenguaje excesivamente formal, estructuras de oraciones repetitivas y una tendencia a incluir frases introductorias innecesarias. Estos son precisamente el tipo de peculiaridades que identificó WikiProject AI Cleanup.
Humanizer, esencialmente un archivo de habilidades para Claude Code, utiliza un archivo con formato Markdown para agregar una lista de instrucciones escritas. Al evitar activamente estos patrones, el plug-in tiene como objetivo hacer que el texto generado por IA sea menos detectable.
Este desarrollo plantea importantes preguntas sobre el futuro de la creación de contenido y el potencial de la IA para engañar. A medida que los modelos de IA se vuelven más sofisticados en la imitación de la escritura humana, distinguir entre contenido auténtico y artificial se vuelve cada vez más desafiante. Esto tiene implicaciones para todo, desde el periodismo y la investigación académica hasta las reseñas en línea y las redes sociales.
Los esfuerzos de WikiProject AI Cleanup resaltan la importancia de la supervisión humana en la era de la IA. Su trabajo no solo ayuda a mantener la integridad de Wikipedia, sino que también proporciona información valiosa sobre las características del texto generado por IA. Sin embargo, el rápido desarrollo de herramientas como Humanizer sugiere que el juego del gato y el ratón entre los detectores de IA y los "humanizadores" de IA apenas está comenzando.
Las consecuencias a largo plazo de esta carrera armamentista son inciertas. ¿Eventualmente la IA se volverá indistinguible de la escritura humana? ¿O surgirán nuevos métodos de detección para seguir el ritmo de la evolución de la tecnología? Una cosa está clara: la capacidad de evaluar críticamente y verificar la autenticidad de la información será más importante que nunca.
Discussion
Join the conversation
Be the first to comment