Die digitale Welt ist von Texten überschwemmt, und es wird zunehmend schwieriger, zwischen Mensch und Maschine zu unterscheiden. Aber eine Gruppe von Wikipedia-Redakteuren, die sich ursprünglich auf die Bereinigung von KI-generierten Artikeln in der Online-Enzyklopädie konzentrierte, hat möglicherweise unbeabsichtigt ein neues Wettrüsten bei dem Bestreben ausgelöst, KI menschlicher klingen zu lassen.
Seit Ende 2023 sind die Freiwilligen des WikiProject AI Cleanup auf der Jagd und kennzeichnen akribisch Artikel, bei denen der Verdacht besteht, dass sie von künstlicher Intelligenz geschrieben wurden. Das von dem französischen Wikipedia-Redakteur Ilyas Lebleu gegründete Projekt hat über 500 Artikel zur Überprüfung identifiziert. Ihre Arbeit gipfelte im August 2025 in einer formalen Liste von verräterischen Anzeichen für KI-Texte – Mustern in Sprache und Formatierung, die einen nicht-menschlichen Ursprung verraten.
Nun hat diese Liste ein unerwartetes zweites Leben gefunden. Der Tech-Unternehmer Siqi Chen hat ein Open-Source-Plug-in namens "Humanizer" für Anthropic's Claude Code AI-Assistenten veröffentlicht. Dieses einfache, aber geniale Tool speist die Liste der Wikipedia-Redakteure in Claude ein und weist die KI im Wesentlichen an: "Schreibe nicht so." Chen veröffentlichte das Plug-in auf GitHub, wo es schnell an Zugkraft gewonnen hat und bis Montag über 1.600 Sterne gesammelt hat.
"Es ist wirklich praktisch, dass Wikipedia eine detaillierte Liste von Anzeichen für KI-Texte zusammengestellt hat", schrieb Chen auf X. "So sehr, dass man seinem LLM einfach sagen kann, es soll das nicht tun."
Die Auswirkungen sind bedeutend. Große Sprachmodelle (LLMs) wie Claude werden mit riesigen Datensätzen von Texten trainiert und lernen, menschliche Schreibstile nachzuahmen. Sie weisen jedoch oft vorhersehbare Muster auf: übermäßig formale Sprache, repetitive Satzstrukturen und eine Tendenz, unnötige einleitende Phrasen zu verwenden. Genau das sind die Eigenheiten, die das WikiProject AI Cleanup identifiziert hat.
Humanizer, im Wesentlichen eine Skill-Datei für Claude Code, verwendet eine Markdown-formatierte Datei, um eine Liste von schriftlichen Anweisungen hinzuzufügen. Durch die aktive Vermeidung dieser Muster zielt das Plug-in darauf ab, KI-generierte Texte weniger erkennbar zu machen.
Diese Entwicklung wirft wichtige Fragen über die Zukunft der Inhaltserstellung und das Potenzial von KI zur Täuschung auf. Da KI-Modelle immer ausgefeilter darin werden, menschliches Schreiben nachzuahmen, wird es zunehmend schwieriger, zwischen authentischen und künstlichen Inhalten zu unterscheiden. Dies hat Auswirkungen auf alles, von Journalismus und akademischer Forschung bis hin zu Online-Bewertungen und sozialen Medien.
Die Bemühungen des WikiProject AI Cleanup unterstreichen die Bedeutung der menschlichen Aufsicht im Zeitalter der KI. Ihre Arbeit trägt nicht nur zur Wahrung der Integrität von Wikipedia bei, sondern liefert auch wertvolle Einblicke in die Eigenschaften von KI-generierten Texten. Die rasante Entwicklung von Tools wie Humanizer deutet jedoch darauf hin, dass das Katz-und-Maus-Spiel zwischen KI-Detektoren und KI-"Humanisierern" erst am Anfang steht.
Die langfristigen Folgen dieses Wettrüstens sind ungewiss. Wird KI irgendwann nicht mehr von menschlichem Schreiben zu unterscheiden sein? Oder werden neue Methoden der Erkennung entstehen, um mit der sich entwickelnden Technologie Schritt zu halten? Eines ist klar: Die Fähigkeit, Informationen kritisch zu bewerten und ihre Authentizität zu überprüfen, wird wichtiger denn je sein.
Discussion
Join the conversation
Be the first to comment