Orchestral AI, un nouveau framework Python, a été publié cette semaine sur Github, offrant une approche plus simple et plus reproductible de l'orchestration des grands modèles de langage (LLM), contrastant avec la complexité des outils existants comme LangChain. Développé par le physicien théoricien Alexander et Jacob Roman, Orchestral AI vise à fournir une alternative synchrone et de type sûr, conçue pour la reproductibilité et la science soucieuse des coûts, selon VentureBeat.
Le framework répond à une préoccupation croissante parmi les développeurs et les scientifiques qui se sont sentis obligés de choisir entre des écosystèmes complexes comme LangChain et des kits de développement logiciel (SDK) à fournisseur unique de fournisseurs comme Anthropic ou OpenAI. Alors que le premier présente des défis dans le contrôle des agents d'IA, le second enferme les utilisateurs dans des fournisseurs spécifiques. Pour les scientifiques, ce manque de reproductibilité constitue un obstacle important à l'utilisation de l'IA dans la recherche.
Orchestral AI privilégie l'exécution synchrone et la sécurité des types, dans le but de rendre l'IA plus accessible et plus fiable, en particulier pour la recherche scientifique nécessitant des résultats déterministes, a rapporté VentureBeat. Le framework cherche à tracer une troisième voie, offrant une solution qui évite les pièges des systèmes à la fois trop complexes et verrouillés par un fournisseur. L'objectif est de maîtriser la complexité des LLM grâce à une orchestration reproductible.
Discussion
Join the conversation
Be the first to comment