Google Research a révélé une technique d'invite étonnamment simple qui améliore considérablement la précision des LLM. Répéter la requête d'entrée peut améliorer les performances jusqu'à 76 %. L'article, publié le mois dernier, a testé cette méthode sur les principaux modèles tels que Gemini, GPT-4o, Claude et DeepSeek.
Les chercheurs ont découvert que pour les tâches ne nécessitant pas un raisonnement complexe, la répétition de l'invite donne des résultats nettement meilleurs. Cette découverte remet en question la tendance à des stratégies d'invite de plus en plus complexes. La technique consiste littéralement à copier-coller l'invite, de sorte qu'elle apparaisse deux fois.
L'impact immédiat pourrait simplifier le développement de l'IA et réduire la dépendance à des méthodes d'invite complexes. Les premières réactions suggèrent un intérêt généralisé pour l'adoption de cette technique. Cela pourrait conduire à des applications d'IA plus efficaces et plus précises.
Pendant des années, les ingénieurs ont développé des méthodes complexes comme le "Chain of Thought" et l'invite multi-shot. Cette nouvelle recherche suggère un retour à des approches plus simples. L'accent se déplace vers l'optimisation de l'entrée plutôt que vers la manipulation complexe du modèle.
Les recherches futures exploreront probablement les limites de la répétition d'invite et son applicabilité à des tâches plus complexes. La communauté de l'IA observera attentivement la manière dont cette technique simple remodèle le développement des LLM.
Discussion
Join the conversation
Be the first to comment