Google Research hat eine überraschend einfache Technik zur Steigerung der LLM-Genauigkeit vorgestellt. Die Wiederholung der Eingabeaufforderung kann die Leistung um bis zu 76 % verbessern. Die im letzten Monat veröffentlichten Ergebnisse stellen komplexe Prompting-Methoden in Frage.
Die Forscher testeten die Technik mit Gemini, GPT-4o, Claude und DeepSeek. Sie entdeckten, dass die Wiederholung von Prompts die Ergebnisse bei Aufgaben ohne logisches Denken deutlich verbesserte. Das Paper mit dem Titel "Prompt Repetition Improves Non-Reasoning LLMs" wurde kurz vor den Feiertagen veröffentlicht.
Die Entdeckung könnte die KI-Entwicklung vereinfachen und die Rechenkosten senken. Experten evaluieren nun die Auswirkungen auf verschiedene Anwendungen. Die KI-Community diskutiert aktiv die Ergebnisse des Papers.
Jahrelang entwickelten Ingenieure komplizierte Prompting-Strategien. Dazu gehörten "Chain of Thought" und "Emotional Blackmail". Die neue Forschung deutet darauf hin, dass ein direkterer Ansatz in manchen Fällen effektiver sein könnte.
Zukünftige Forschung wird die Grenzen der Prompt-Wiederholung untersuchen. Wissenschaftler wollen verstehen, warum diese einfache Methode so gut funktioniert. Der Fokus liegt auf der Optimierung von LLMs für breitere Anwendungen.
Discussion
Join the conversation
Be the first to comment