O Google Research revelou uma técnica surpreendentemente simples que aumenta drasticamente a precisão de LLMs. Repetir a consulta de entrada pode melhorar o desempenho em até 76%. O artigo, publicado no mês passado, desafia métodos de prompting complexos.
Pesquisadores descobriram que duplicar prompts melhora os resultados para tarefas que não exigem raciocínio intrincado. A técnica funciona em modelos importantes como Gemini, GPT-4o, Claude e DeepSeek. Carl Franzen relatou as descobertas no VentureBeat, 13 de janeiro de 2026.
Esta descoberta pode simplificar o desenvolvimento de IA e reduzir a dependência de estratégias de prompting complexas. As reações iniciais sugerem uma adoção generalizada devido à sua facilidade de implementação. A comunidade de IA está agora avaliando as limitações e aplicações potenciais da técnica.
Durante anos, engenheiros desenvolveram métodos de prompting cada vez mais complexos. Técnicas como "Chain of Thought" e "Chantagem Emocional" visavam melhorar as respostas de LLMs. Esta nova pesquisa sugere que uma abordagem mais direta pode ser igualmente, se não mais, eficaz.
Pesquisas futuras provavelmente explorarão os mecanismos subjacentes a este fenômeno. Cientistas também investigarão sua eficácia em uma gama mais ampla de tarefas e modelos. O foco agora se volta para entender por que um método tão simples produz melhorias tão significativas.
Discussion
Join the conversation
Be the first to comment