Orchestral AI, un nuevo framework de Python, fue lanzado esta semana en Github, ofreciendo un enfoque más simple y reproducible para la orquestación de Modelos de Lenguaje Grandes (LLM), contrastando con la complejidad de herramientas existentes como LangChain. Desarrollado por el físico teórico Alexander y Jacob Roman, Orchestral AI tiene como objetivo proporcionar una alternativa síncrona y con seguridad de tipos diseñada para la reproducibilidad y la ciencia consciente de los costos, según VentureBeat.
El framework aborda una creciente preocupación entre desarrolladores y científicos que se han sentido obligados a elegir entre ecosistemas complejos como LangChain y Kits de Desarrollo de Software (SDKs) de un solo proveedor de proveedores como Anthropic u OpenAI. Mientras que el primero presenta desafíos en el control de los agentes de IA, el segundo encierra a los usuarios en proveedores específicos. Para los científicos, esta falta de reproducibilidad es un obstáculo importante para el uso de la IA en la investigación.
Orchestral AI prioriza la ejecución síncrona y la seguridad de tipos, con el objetivo de hacer que la IA sea más accesible y confiable, particularmente para la investigación científica que requiere resultados deterministas, informó VentureBeat. El framework busca trazar un tercer camino, ofreciendo una solución que evite las trampas de los sistemas demasiado complejos y los bloqueados por el proveedor. El objetivo es domar la complejidad de los LLM con una orquestación reproducible.
Discussion
Join the conversation
Be the first to comment