El emprendedor tecnológico Siqi Chen lanzó el sábado un plugin de código abierto llamado Humanizer, diseñado para mitigar los signos reveladores de texto generado por IA en el asistente Claude Code AI de Anthropic. El plugin, disponible en GitHub, instruye al modelo de IA para que evite 24 patrones de lenguaje y formato identificados por los editores de Wikipedia como indicadores de contenido producido por chatbots.
El plugin Humanizer aprovecha una guía compilada por WikiProject AI Cleanup, un grupo de voluntarios de Wikipedia dedicados a identificar y marcar artículos generados por IA desde finales de 2023. Fundado por el editor francés de Wikipedia Ilyas Lebleu, el proyecto ha etiquetado más de 500 artículos para su revisión y publicó una lista formal de patrones observados con frecuencia en agosto de 2025. Estos patrones, ahora integrados en el plugin de Chen, van desde tendencias de redacción específicas hasta peculiaridades de formato características que se encuentran a menudo en textos generados por IA.
Chen destacó la importancia del trabajo de Wikipedia en una publicación en X, afirmando: "Es realmente útil que Wikipedia haya recopilado una lista detallada de signos de escritura de IA. Tanto es así que puedes simplemente decirle a tu LLM que no haga eso". El plugin en sí es un archivo de habilidades para Claude Code, el asistente de codificación basado en terminales de Anthropic, y consiste en un archivo con formato Markdown.
El auge de la IA generativa ha presentado desafíos en la verificación de contenido, ya que el texto generado por IA a veces es difícil de distinguir del material escrito por humanos. Esto ha generado preocupaciones sobre el potencial de desinformación y la erosión de la confianza en las fuentes de información en línea. Wikipedia, como enciclopedia colaborativa, ha sido particularmente vulnerable, lo que ha impulsado la creación de WikiProject AI Cleanup para combatir la afluencia de artículos generados por IA.
El desarrollo de herramientas como Humanizer refleja un esfuerzo creciente para abordar estos desafíos haciendo que los resultados de la IA sean más transparentes y menos engañosos. Al identificar y mitigar los marcadores estilísticos del texto generado por IA, los desarrolladores esperan fomentar una mayor responsabilidad y alentar el uso responsable de la tecnología de IA. Hasta el lunes, el plugin Humanizer había obtenido más de 1600 estrellas en GitHub, lo que indica un interés y una adopción significativos dentro de la comunidad de desarrolladores. El impacto a largo plazo de tales herramientas en el panorama cambiante del contenido generado por IA está aún por verse.
Discussion
Join the conversation
Be the first to comment