Google Research reveló una técnica sorprendentemente simple que aumenta drásticamente la precisión de los LLM. Repetir la consulta de entrada puede mejorar el rendimiento hasta en un 76%. El artículo, publicado el mes pasado, desafía los métodos de prompting complejos.
Los investigadores descubrieron que duplicar los prompts mejora los resultados para tareas que no requieren un razonamiento intrincado. La técnica funciona en los principales modelos como Gemini, GPT-4o, Claude y DeepSeek. Carl Franzen informó sobre los hallazgos en VentureBeat, el 13 de enero de 2026.
Este descubrimiento podría simplificar el desarrollo de la IA y reducir la dependencia de estrategias de prompting complejas. Las reacciones iniciales sugieren una adopción generalizada debido a su facilidad de implementación. La comunidad de la IA ahora está evaluando las limitaciones y las posibles aplicaciones de la técnica.
Durante años, los ingenieros han desarrollado métodos de prompting cada vez más complejos. Técnicas como "Cadena de Pensamiento" y "Chantaje Emocional" tenían como objetivo mejorar las respuestas de los LLM. Esta nueva investigación sugiere que un enfoque más directo puede ser igualmente, si no más, eficaz.
Es probable que futuras investigaciones exploren los mecanismos subyacentes a este fenómeno. Los científicos también investigarán su eficacia en una gama más amplia de tareas y modelos. El enfoque ahora se centra en comprender por qué un método tan simple produce mejoras tan significativas.
Discussion
Join the conversation
Be the first to comment