O Google Research revelou uma técnica surpreendentemente simples para impulsionar a precisão de LLMs. Repetir o prompt de entrada pode melhorar o desempenho em até 76%. As descobertas, publicadas no mês passado, desafiam métodos de prompting complexos.
Pesquisadores testaram a técnica no Gemini, GPT-4o, Claude e DeepSeek. Eles descobriram que a repetição do prompt melhorou significativamente os resultados para tarefas que não envolvem raciocínio. O artigo, intitulado "Prompt Repetition Improves Non-Reasoning LLMs", foi lançado pouco antes do feriado.
A descoberta pode simplificar o desenvolvimento de IA e reduzir os custos computacionais. Especialistas estão agora avaliando as implicações para várias aplicações. A comunidade de IA está discutindo ativamente as descobertas do artigo.
Durante anos, engenheiros desenvolveram estratégias de prompting intrincadas. Estas incluíram "Chain of Thought" e "Chantagem Emocional". A nova pesquisa sugere que uma abordagem mais direta pode ser mais eficaz em alguns casos.
Pesquisas futuras explorarão os limites da repetição de prompt. Cientistas pretendem entender por que este método simples funciona tão bem. O foco está na otimização de LLMs para aplicações mais amplas.
Discussion
Join the conversation
Be the first to comment