Google Research reveló una técnica sorprendentemente simple para aumentar la precisión de los LLM. Repetir la instrucción de entrada puede mejorar el rendimiento hasta en un 76%. El artículo, publicado el mes pasado, probó este método en modelos como Gemini, GPT-4o, Claude y DeepSeek.
Los investigadores descubrieron que, para tareas que no requieren un razonamiento complejo, la repetición de la instrucción mejoraba significativamente los resultados. Este hallazgo desafía la tendencia de estrategias de instrucción cada vez más complejas. El estudio, titulado "La repetición de la instrucción mejora los LLM que no razonan", se publicó justo antes de las vacaciones en diciembre de 2025.
El impacto inmediato podría ser una simplificación de los flujos de trabajo de la IA. Los ingenieros pueden descubrir que pueden lograr mejores resultados con instrucciones menos complejas. La comunidad de la IA ahora está evaluando las implicaciones de esta investigación.
Durante años, los ingenieros de IA han desarrollado métodos de instrucción intrincados. Estos incluyeron "Cadena de pensamiento" e incluso instrucciones emocionalmente manipuladoras. Esta nueva investigación sugiere un retorno a métodos más simples.
Investigaciones futuras explorarán los límites de la repetición de la instrucción. Estudios futuros pueden investigar su eficacia en diferentes tipos de LLM y tareas. El campo de la IA espera nuevos desarrollos.
Discussion
Join the conversation
Be the first to comment