Google Research hat eine überraschend einfache Technik zur Steigerung der LLM-Genauigkeit vorgestellt: Prompt-Wiederholung. Die wörtliche Wiederholung der Eingabeabfrage verbesserte die Leistung bei Aufgaben, die kein komplexes Denken erfordern, um bis zu 76 %. Das Paper "Prompt Repetition Improves Non-Reasoning LLMs" wurde letzten Monat veröffentlicht.
Die Forscher testeten die Methode an wichtigen Modellen wie Gemini, GPT-4o, Claude und DeepSeek. Die Studie ergab durchweg Verbesserungen. Dies stellt den Trend zu immer komplexeren Prompting-Strategien in Frage.
Die unmittelbare Auswirkung könnte eine Vereinfachung der KI-Workflows sein. Ingenieure können möglicherweise mit weniger Aufwand bessere Ergebnisse erzielen. Die KI-Community diskutiert bereits die Auswirkungen dieser Erkenntnis.
Seit Jahren entwickeln KI-Ingenieure komplizierte Prompting-Methoden. Dazu gehörten "Chain of Thought" und Multi-Shot-Prompting-Frameworks. Diese neue Forschung deutet auf eine Rückkehr zu einfacheren Methoden hin.
Zukünftige Forschung wird wahrscheinlich die Grenzen der Prompt-Wiederholung untersuchen. Wissenschaftler werden ihre Wirksamkeit bei komplexeren Aufgaben untersuchen. Die Ergebnisse könnten die Art und Weise, wie wir mit KI interagieren, verändern.
Discussion
Join the conversation
Be the first to comment