Google Research представила удивительно простую технику для повышения точности LLM: повторение запроса. Дословное повторение входного запроса улучшило производительность до 76% в задачах, не требующих сложных рассуждений. Статья "Prompt Repetition Improves Non-Reasoning LLMs" была опубликована в прошлом месяце.
Исследователи протестировали этот метод на основных моделях, таких как Gemini, GPT-4o, Claude и DeepSeek. Исследование выявило стабильные улучшения во всех случаях. Это бросает вызов тенденции к усложнению стратегий промптинга.
Непосредственным результатом может стать упрощение рабочих процессов ИИ. Инженеры смогут добиться лучших результатов с меньшими усилиями. Сообщество ИИ уже обсуждает последствия этого открытия.
В течение многих лет инженеры ИИ разрабатывали сложные методы промптинга. К ним относятся "Chain of Thought" и многошаговые фреймворки промптинга. Это новое исследование предполагает возвращение к более простым методам.
Будущие исследования, вероятно, будут посвящены изучению пределов повторения запросов. Ученые будут исследовать его эффективность в более сложных задачах. Результаты могут изменить то, как мы взаимодействуем с ИИ.
Discussion
Join the conversation
Be the first to comment