El mundo digital está inundado de texto y, cada vez más, es difícil saber quién – o qué – está escribiendo. Pero un grupo de vigilantes editores de Wikipedia, inicialmente centrados en evitar que artículos generados por IA lleguen a la enciclopedia en línea, podrían haber desatado inadvertidamente una nueva carrera armamentista en la búsqueda de hacer que la inteligencia artificial suene, bueno, más humana.
Desde finales de 2023, los voluntarios de WikiProject AI Cleanup, encabezados por el editor francés de Wikipedia, Ilyas Lebleu, han estado a la caza de contenido creado por IA que se infiltra en la plataforma. Han etiquetado más de 500 artículos para su revisión, familiarizándose íntimamente con los signos reveladores de la escritura de la IA. En agosto de 2025, formalizaron sus observaciones en una guía disponible públicamente, una lista detallada de patrones lingüísticos y de formato que delatan la mano de un chatbot.
Esta guía, destinada a ayudar a identificar y eliminar el contenido generado por IA, ha encontrado ahora una inesperada segunda vida. El emprendedor tecnológico Siqi Chen lanzó recientemente "Humanizer", un *plug-in* de código abierto para el asistente de IA Claude Code de Anthropic. Esta sencilla herramienta alimenta a Claude con la lista de 24 indicios de *chatbot* de los editores de Wikipedia, esencialmente instruyendo a la IA para que evite estos patrones e imite la escritura humana de forma más eficaz.
"Es realmente útil que Wikipedia haya recopilado una lista detallada de signos de escritura de IA", escribió Chen en X. "Tanto es así que puedes simplemente decirle a tu LLM que no haga eso".
Las implicaciones de este desarrollo son significativas. Por un lado, destaca la creciente sofisticación de la IA y su capacidad para adaptarse y aprender. Por otro, plantea preocupaciones sobre el potencial de la IA para engañar y manipular, difuminando las líneas entre el contenido generado por humanos y por máquinas.
La guía de WikiProject AI Cleanup identifica patrones como el lenguaje excesivamente formal, las estructuras de frases repetitivas y la tendencia a evitar las contracciones. Todas estas son características que, aunque no son intrínsecamente incorrectas, a menudo marcan la escritura de la IA como distinta de la prosa humana. Al entrenar a la IA para que evite estos patrones, herramientas como Humanizer podrían hacer que sea cada vez más difícil distinguir entre la escritura humana auténtica y la sofisticada imitación de la IA.
"El reto es que la IA está en constante evolución", afirma la Dra. Anya Sharma, profesora de lingüística computacional en la Universidad de Stanford. "A medida que los modelos de IA se vuelven más sofisticados, inevitablemente aprenderán a imitar los estilos de escritura humanos de forma más convincente. Esto crea un constante juego del gato y el ratón entre quienes intentan detectar el contenido generado por la IA y quienes intentan hacerlo indetectable".
El desarrollo también plantea cuestiones éticas. ¿Es ético utilizar la IA para imitar deliberadamente la escritura humana? ¿Cuáles son las posibles consecuencias de un mundo en el que sea cada vez más difícil distinguir entre el contenido generado por humanos y por máquinas?
El uso de la IA para "humanizar" los *chatbots* podría tener implicaciones de gran alcance para diversos sectores, desde el marketing y la atención al cliente hasta el periodismo y la educación. Imaginen *chatbots* impulsados por la IA que pueden participar sin problemas en conversaciones, escribir textos de marketing convincentes o incluso generar artículos de noticias que sean indistinguibles de los escritos por periodistas humanos.
Aunque la guía de los editores de Wikipedia se concibió inicialmente para combatir la propagación de la desinformación generada por la IA, inadvertidamente ha proporcionado una valiosa herramienta para quienes buscan mejorar las capacidades de la IA. A medida que la IA continúa evolucionando, es crucial considerar las implicaciones éticas y sociales de estos desarrollos y desarrollar estrategias para garantizar la transparencia y la rendición de cuentas en la era de la inteligencia artificial. La línea entre el ser humano y la máquina se está difuminando, y es una conversación que debemos tener ahora.
Discussion
Join the conversation
Be the first to comment