Google Research hat eine überraschend einfache Technik zur Steigerung der LLM-Genauigkeit vorgestellt. Die Wiederholung der Eingabeaufforderung kann die Leistung um bis zu 76 % steigern. Die im letzten Monat veröffentlichte Studie erläuterte die Ergebnisse im Detail.
Forscher entdeckten, dass die Duplizierung von Prompts die Ergebnisse bei Aufgaben, die kein komplexes Denken erfordern, deutlich verbesserte. Diese Methode funktioniert bei wichtigen Modellen wie Gemini, GPT-4o, Claude und DeepSeek. Die Studie stellt komplexe Prompting-Strategien in Frage, die in den letzten Jahren entwickelt wurden.
Die unmittelbare Auswirkung ist eine potenzielle Vereinfachung der KI-Optimierung. Ingenieure können möglicherweise mit weniger komplexen Methoden bessere Ergebnisse erzielen. Die KI-Community evaluiert nun die Auswirkungen dieser Entdeckung.
Bisher galten komplexe Methoden wie "Chain of Thought" und Multi-Shot-Prompting als unerlässlich. Diese neue Forschung legt nahe, dass ein unkomplizierterer Ansatz für viele Aufgaben ausreichend sein könnte.
Weitere Forschung wird die Grenzen der Prompt-Wiederholung untersuchen. Zukünftige Studien könnten die Wirksamkeit bei komplexeren Denkaufgaben untersuchen. Die Ergebnisse könnten die LLM-Entwicklungsstrategien neu gestalten.
Discussion
Join the conversation
Be the first to comment