
Wiederhole nach mir: Einfacher Prompt-Trick steigert die LLM-Genauigkeit enorm
Ein neues Paper von Google Research zeigt, dass die Wiederholung von Prompts die Genauigkeit von Large Language Models (LLMs) bei Aufgaben, die kein komplexes Denken erfordern, deutlich steigern kann, wodurch die Leistung von Modellen wie Gemini und GPT-4o um bis zu 76 % verbessert wird. Diese einfache Technik, die die Transformer-Architektur nutzt, behebt den "kausalen blinden Fleck" und bietet eine kostenlose Methode zur Verbesserung der LLM-Ausgabe, was eine Neubewertung komplexer Prompting-Strategien nahelegt.


















Discussion
Join the conversation
Be the first to comment