Google Research reveló una técnica de prompt sorprendentemente simple que aumenta drásticamente la precisión de los LLM. Repetir la consulta de entrada puede mejorar el rendimiento hasta en un 76%. El artículo, publicado el mes pasado, probó este método en los principales modelos como Gemini, GPT-4o, Claude y DeepSeek.
Los investigadores descubrieron que para las tareas que no requieren un razonamiento complejo, la repetición del prompt produce resultados significativamente mejores. Este hallazgo desafía la tendencia de estrategias de prompting cada vez más complejas. La técnica consiste literalmente en copiar y pegar el prompt, de modo que aparezca dos veces.
El impacto inmediato podría simplificar el desarrollo de la IA y reducir la dependencia de métodos de prompting intrincados. Las primeras respuestas sugieren un interés generalizado en la adopción de esta técnica. Esto podría conducir a aplicaciones de IA más eficientes y precisas.
Durante años, los ingenieros han desarrollado métodos complejos como "Cadena de Pensamiento" y el prompting multi-shot. Esta nueva investigación sugiere un retorno a enfoques más simples. El enfoque se desplaza a la optimización de la entrada en lugar de la manipulación compleja del modelo.
Es probable que futuras investigaciones exploren los límites de la repetición del prompt y su aplicabilidad a tareas más complejas. La comunidad de la IA estará observando de cerca para ver cómo esta sencilla técnica remodela el desarrollo de los LLM.
Discussion
Join the conversation
Be the first to comment