Google Research reveló una técnica sorprendentemente simple para aumentar la precisión de los LLM. Repetir la instrucción de entrada puede mejorar el rendimiento hasta en un 76%. Los hallazgos, publicados el mes pasado, desafían los métodos de prompting complejos.
Los investigadores probaron la técnica en Gemini, GPT-4o, Claude y DeepSeek. Descubrieron que la repetición de la instrucción mejoraba significativamente los resultados para las tareas que no requieren razonamiento. El artículo, titulado "Prompt Repetition Improves Non-Reasoning LLMs", se publicó justo antes de las vacaciones.
El descubrimiento podría simplificar el desarrollo de la IA y reducir los costes computacionales. Los expertos están evaluando ahora las implicaciones para diversas aplicaciones. La comunidad de la IA está discutiendo activamente los hallazgos del artículo.
Durante años, los ingenieros desarrollaron estrategias de prompting intrincadas. Estas incluían "Cadena de Pensamiento" y "Chantaje Emocional". La nueva investigación sugiere que un enfoque más directo puede ser más eficaz en algunos casos.
Las investigaciones futuras explorarán los límites de la repetición de la instrucción. Los científicos pretenden comprender por qué este método sencillo funciona tan bien. El objetivo es optimizar los LLM para aplicaciones más amplias.
Discussion
Join the conversation
Be the first to comment