O Google Research revelou uma técnica surpreendentemente simples para aumentar a precisão de LLMs. Repetir o prompt de entrada pode melhorar o desempenho em até 76%. O artigo, divulgado no mês passado, testou este método em modelos como Gemini, GPT-4o, Claude e DeepSeek.
Pesquisadores descobriram que, para tarefas que não exigem raciocínio complexo, a repetição do prompt melhorou significativamente os resultados. Esta descoberta desafia a tendência de estratégias de prompting cada vez mais complexas. O estudo, intitulado "Prompt Repetition Improves Non-Reasoning LLMs", foi publicado pouco antes das festas de fim de ano, em dezembro de 2025.
O impacto imediato pode ser uma simplificação dos fluxos de trabalho de IA. Engenheiros podem descobrir que conseguem melhores resultados com prompts menos complexos. A comunidade de IA está agora avaliando as implicações desta pesquisa.
Durante anos, engenheiros de IA desenvolveram métodos de prompting intrincados. Estes incluíram "Chain of Thought" e até mesmo prompts emocionalmente manipuladores. Esta nova pesquisa sugere um retorno a métodos mais simples.
Pesquisas futuras explorarão os limites da repetição de prompts. Estudos futuros podem investigar sua eficácia em diferentes tipos de LLMs e tarefas. O campo da IA aguarda novos desenvolvimentos.
Discussion
Join the conversation
Be the first to comment