O Google Research revelou uma técnica de prompt surpreendentemente simples que aumenta drasticamente a precisão dos LLMs. Repetir a consulta de entrada pode melhorar o desempenho em até 76%. O artigo, lançado no mês passado, testou este método em modelos importantes como Gemini, GPT-4o, Claude e DeepSeek.
Pesquisadores descobriram que, para tarefas que não exigem raciocínio complexo, a repetição do prompt produz resultados significativamente melhores. Esta descoberta desafia a tendência de estratégias de prompting cada vez mais complexas. A técnica envolve literalmente copiar e colar o prompt, para que ele apareça duas vezes.
O impacto imediato pode simplificar o desenvolvimento de IA e reduzir a dependência de métodos de prompting intrincados. As primeiras respostas sugerem um interesse generalizado em adotar esta técnica. Isso pode levar a aplicações de IA mais eficientes e precisas.
Durante anos, engenheiros desenvolveram métodos complexos como "Chain of Thought" e prompting multi-shot. Esta nova pesquisa sugere um retorno a abordagens mais simples. O foco muda para otimizar a entrada em vez de manipulação complexa do modelo.
Pesquisas futuras provavelmente explorarão os limites da repetição de prompt e sua aplicabilidade a tarefas mais complexas. A comunidade de IA estará observando atentamente para ver como esta técnica simples remodela o desenvolvimento de LLMs.
Discussion
Join the conversation
Be the first to comment