OpenAI a conclu un accord pluriannuel avec Cerebras, un fabricant de puces d'IA, afin de s'assurer 750 mégawatts de puissance de calcul, à partir de cette année et jusqu'en 2028. Une source proche du dossier a déclaré à TechCrunch que l'accord est évalué à plus de 10 milliards de dollars ; Reuters a également rapporté la taille de l'accord.
Cette collaboration vise à accélérer la vitesse à laquelle OpenAI fournit des résultats à ses clients. Selon un article de blog d'OpenAI, l'augmentation de la capacité de calcul réduira les temps de traitement des réponses qui nécessitent actuellement plus de temps. Les deux entreprises ont souligné que l'accord se traduirait par des résultats plus rapides pour les clients d'OpenAI.
Cerebras, fondée il y a plus de dix ans, a vu son importance croître depuis l'essor de ChatGPT en 2022 et la flambée subséquente du développement de l'IA. L'entreprise affirme que ses systèmes, alimentés par des puces spécialement conçues pour les tâches d'IA, surpassent les systèmes basés sur des GPU, tels que ceux proposés par Nvidia. Andrew Feldman, cofondateur et PDG de Cerebras, a comparé l'impact de l'inférence en temps réel à l'effet transformateur du haut débit sur Internet. "Tout comme le haut débit a transformé Internet, l'inférence en temps réel transformera l'IA", a-t-il déclaré.
L'accord souligne la demande croissante de ressources de calcul dans le secteur de l'IA, stimulée par la complexité et l'échelle croissantes des modèles d'IA. Le besoin d'un traitement plus rapide et d'une inférence en temps réel devient essentiel à mesure que les applications d'IA se développent dans divers secteurs, du service client à la recherche scientifique.
Cerebras avait déposé une demande d'introduction en bourse en 2024, mais l'a reportée à plusieurs reprises. Dans l'intervalle, l'entreprise a continué à lever des capitaux importants. Il a été rapporté mardi que l'entreprise était en pourparlers.
Discussion
Join the conversation
Be the first to comment