O Google Research revelou uma técnica surpreendentemente simples para impulsionar a precisão de LLMs: repetição de prompt. Repetir a consulta de entrada verbatim melhorou o desempenho em até 76% em tarefas que não exigem raciocínio complexo. O artigo, "Prompt Repetition Improves Non-Reasoning LLMs," foi lançado no mês passado.
Pesquisadores testaram o método em modelos importantes como Gemini, GPT-4o, Claude e DeepSeek. O estudo encontrou melhorias consistentes em todos os casos. Isso desafia a tendência de estratégias de prompting cada vez mais complexas.
O impacto imediato pode ser uma simplificação dos fluxos de trabalho de IA. Engenheiros podem ser capazes de alcançar melhores resultados com menos esforço. A comunidade de IA já está discutindo as implicações desta descoberta.
Durante anos, engenheiros de IA desenvolveram métodos de prompting intrincados. Estes incluíram frameworks de "Chain of Thought" e prompting multi-shot. Esta nova pesquisa sugere um retorno a métodos mais simples.
Pesquisas futuras provavelmente explorarão os limites da repetição de prompt. Cientistas investigarão sua eficácia em tarefas mais complexas. As descobertas podem remodelar como interagimos com a IA.
Discussion
Join the conversation
Be the first to comment