Google Research hat eine überraschend einfache Technik zur Steigerung der LLM-Genauigkeit vorgestellt. Die Wiederholung der Eingabeaufforderung kann die Leistung um bis zu 76 % verbessern. Das im letzten Monat veröffentlichte Paper testete diese Methode an Modellen wie Gemini, GPT-4o, Claude und DeepSeek.
Forscher fanden heraus, dass für Aufgaben, die kein komplexes Denken erfordern, die Wiederholung der Prompt die Ergebnisse deutlich verbesserte. Diese Erkenntnis stellt den Trend zu immer komplexeren Prompting-Strategien in Frage. Die Studie mit dem Titel "Prompt Repetition Improves Non-Reasoning LLMs" wurde kurz vor den Feiertagen im Dezember 2025 veröffentlicht.
Die unmittelbare Auswirkung könnte eine Vereinfachung der KI-Workflows sein. Ingenieure könnten feststellen, dass sie mit weniger komplexen Prompts bessere Ergebnisse erzielen können. Die KI-Community evaluiert nun die Auswirkungen dieser Forschung.
Seit Jahren entwickeln KI-Ingenieure komplizierte Prompting-Methoden. Dazu gehörten "Chain of Thought" und sogar emotional manipulative Prompts. Diese neue Forschung deutet auf eine Rückkehr zu einfacheren Methoden hin.
Weitere Forschung wird die Grenzen der Prompt-Wiederholung untersuchen. Zukünftige Studien könnten ihre Wirksamkeit bei verschiedenen Arten von LLMs und Aufgaben untersuchen. Das KI-Feld erwartet weitere Entwicklungen.
Discussion
Join the conversation
Be the first to comment