Der Tech-Unternehmer Siqi Chen hat am Samstag ein Open-Source-Plugin namens Humanizer veröffentlicht, das entwickelt wurde, um die verräterischen Anzeichen von KI-generiertem Text im KI-Assistenten Claude Code von Anthropic zu mildern. Das auf GitHub verfügbare Plugin weist das KI-Modell an, 24 Sprach- und Formatierungsmuster zu vermeiden, die von Wikipedia-Redakteuren als Indikatoren für Chatbot-generierte Inhalte identifiziert wurden.
Das Humanizer-Plugin nutzt einen Leitfaden, der von WikiProject AI Cleanup zusammengestellt wurde, einer Gruppe von Wikipedia-Freiwilligen, die sich seit Ende 2023 der Identifizierung und Kennzeichnung von KI-generierten Artikeln widmen. Das Projekt wurde vom französischen Wikipedia-Redakteur Ilyas Lebleu gegründet und hat über 500 Artikel zur Überprüfung markiert und im August 2025 eine formelle Liste häufig beobachteter Muster veröffentlicht. Diese Muster, die jetzt in Chens Plugin integriert sind, reichen von spezifischen Formulierungsneigungen bis hin zu charakteristischen Formatierungsfehlern, die häufig in KI-generiertem Text zu finden sind.
Chen hob die Bedeutung der Arbeit von Wikipedia in einem Beitrag auf X hervor und erklärte: "Es ist wirklich praktisch, dass Wikipedia eine detaillierte Liste von Anzeichen für KI-Texte zusammengestellt hat. So sehr, dass man seinem LLM einfach sagen kann, es soll das nicht tun." Das Plugin selbst ist eine Skill-Datei für Claude Code, den terminalbasierten Programmierassistenten von Anthropic, und besteht aus einer Markdown-formatierten Datei.
Der Aufstieg der generativen KI hat Herausforderungen bei der Inhaltsverifizierung mit sich gebracht, da KI-generierter Text manchmal schwer von von Menschen verfasstem Material zu unterscheiden ist. Dies hat zu Bedenken hinsichtlich des Potenzials für Fehlinformationen und der Erosion des Vertrauens in Online-Informationsquellen geführt. Wikipedia war als kollaborative Enzyklopädie besonders anfällig, was zur Gründung von WikiProject AI Cleanup führte, um den Zustrom von KI-generierten Artikeln zu bekämpfen.
Die Entwicklung von Tools wie Humanizer spiegelt eine wachsende Anstrengung wider, diese Herausforderungen anzugehen, indem KI-Ausgaben transparenter und weniger irreführend gemacht werden. Durch die Identifizierung und Abschwächung der stilistischen Marker von KI-generiertem Text hoffen die Entwickler, eine größere Verantwortlichkeit zu fördern und den verantwortungsvollen Einsatz von KI-Technologie zu fördern. Seit Montag hat das Humanizer-Plugin über 1.600 Sterne auf GitHub erhalten, was auf ein großes Interesse und eine breite Akzeptanz in der Entwicklergemeinschaft hindeutet. Die langfristigen Auswirkungen solcher Tools auf die sich entwickelnde Landschaft KI-generierter Inhalte bleiben abzuwarten.
Discussion
Join the conversation
Be the first to comment