Google Research a révélé une technique étonnamment simple pour améliorer la précision des LLM : la répétition de la requête. Répéter la requête d'entrée textuellement a amélioré les performances jusqu'à 76 % sur les tâches ne nécessitant pas de raisonnement complexe. L'article, « Prompt Repetition Improves Non-Reasoning LLMs » (La répétition de la requête améliore les LLM sans raisonnement), a été publié le mois dernier.
Les chercheurs ont testé la méthode sur les principaux modèles tels que Gemini, GPT-4o, Claude et DeepSeek. L'étude a révélé des améliorations constantes dans tous les domaines. Cela remet en question la tendance des stratégies d'incitation de plus en plus complexes.
L'impact immédiat pourrait être une simplification des flux de travail de l'IA. Les ingénieurs pourraient être en mesure d'obtenir de meilleurs résultats avec moins d'efforts. La communauté de l'IA discute déjà des implications de cette découverte.
Pendant des années, les ingénieurs en IA ont développé des méthodes d'incitation complexes. Celles-ci comprenaient des cadres d'incitation « Chain of Thought » (Chaîne de pensée) et multi-shot. Cette nouvelle recherche suggère un retour à des méthodes plus simples.
Les recherches futures exploreront probablement les limites de la répétition des requêtes. Les scientifiques étudieront son efficacité sur des tâches plus complexes. Les résultats pourraient remodeler la façon dont nous interagissons avec l'IA.
Discussion
Join the conversation
Be the first to comment