OpenAI a conclu un accord pluriannuel avec Cerebras, un fabricant de puces d'IA, afin de s'assurer une quantité considérable de puissance de calcul. L'accord, évalué à plus de 10 milliards de dollars, fournira à OpenAI 750 mégawatts de puissance de calcul à partir de cette année et jusqu'en 2028, selon une source proche du dossier, comme l'ont rapporté TechCrunch et Reuters.
Cette collaboration vise à accélérer la vitesse à laquelle OpenAI fournit des résultats à ses clients. Dans un article de blog, OpenAI a déclaré que les nouveaux systèmes réduiraient les temps de traitement des requêtes qui nécessitent actuellement plus de temps. Les deux entreprises ont souligné l'importance d'obtenir des résultats plus rapides pour les utilisateurs d'OpenAI.
Andrew Feldman, cofondateur et PDG de Cerebras, a établi un parallèle entre l'impact du haut débit sur Internet et le potentiel de l'inférence en temps réel pour transformer l'IA. "Tout comme le haut débit a transformé Internet, l'inférence en temps réel transformera l'IA", a déclaré M. Feldman.
Cerebras, fondée il y a plus de dix ans, a vu son intérêt croître depuis le lancement de ChatGPT en 2022 et la flambée du développement de l'IA qui a suivi. L'entreprise affirme que ses systèmes, qui utilisent des puces spécialement conçues pour les tâches d'IA, sont plus performants que les systèmes basés sur des GPU, tels que ceux proposés par Nvidia. Ces affirmations n'ont pas été vérifiées de manière indépendante.
La technologie de l'entreprise est axée sur le Wafer Scale Engine (WSE), une seule tranche de silicium contenant des milliers de processeurs interconnectés. Cette architecture est conçue pour accélérer les charges de travail d'IA en minimisant les goulets d'étranglement de la communication entre les processeurs.
La demande de puissance de calcul dans le domaine de l'IA est motivée par la complexité croissante des modèles d'IA. L'entraînement de ces modèles nécessite de grandes quantités de données et de ressources de calcul. L'inférence, le processus consistant à utiliser un modèle entraîné pour faire des prédictions, bénéficie également de vitesses de traitement plus rapides, en particulier pour les applications nécessitant des réponses en temps réel.
Cerebras a déposé une demande d'introduction en bourse (IPO) en 2024, mais l'a reportée à plusieurs reprises depuis. Dans l'intervalle, l'entreprise a continué à lever des capitaux importants. Il a été rapporté mardi que l'entreprise était en pourparlers.
Discussion
Join the conversation
Be the first to comment