OpenAI, l'entreprise d'intelligence artificielle à l'origine de ChatGPT, a annoncé mercredi qu'elle commencerait à utiliser des puces informatiques de Cerebras, une startup basée dans la Silicon Valley. Cet accord marque la dernière initiative d'OpenAI pour diversifier ses fournisseurs de puces, alors qu'elle cherche à étendre son infrastructure informatique pour le développement et le déploiement de l'IA.
L'entreprise a déclaré que le nombre de puces Cerebras qu'elle prévoit d'utiliser nécessitera à terme 750 mégawatts d'électricité, une quantité suffisante pour alimenter des dizaines de milliers de foyers. Cette collaboration fait suite à des accords précédents avec Nvidia, AMD et Broadcom, soulignant l'approche multidimensionnelle d'OpenAI pour sécuriser les ressources de calcul nécessaires à l'entraînement et à l'exécution de modèles d'IA de plus en plus complexes.
La quête d'OpenAI pour une puissance de calcul avancée reflète une tendance plus large au sein de l'industrie technologique. Des entreprises comme Amazon, Google, Meta et Microsoft investissent collectivement des centaines de milliards de dollars dans de nouveaux centres de données pour soutenir leurs initiatives en matière d'IA. Ces installations sont essentielles pour héberger le matériel spécialisé et l'infrastructure nécessaires à l'entraînement de grands modèles linguistiques (LLM) et d'autres systèmes d'IA. Les LLM, comme celui qui alimente ChatGPT, nécessitent des ensembles de données massifs et des ressources de calcul considérables pour apprendre et générer du texte de qualité humaine. Le processus d'entraînement consiste à alimenter le modèle avec de grandes quantités de données textuelles et à ajuster ses paramètres internes pour améliorer sa capacité à prédire et à générer du texte.
OpenAI étend activement son empreinte de centres de données, avec des installations prévues à Abilene, au Texas, et dans d'autres localités du Texas, du Nouveau-Mexique, de l'Ohio et du Midwest. L'entreprise avait précédemment annoncé son intention de déployer des puces Nvidia et AMD consommant 16 gigawatts d'électricité, soulignant ainsi les immenses besoins énergétiques de l'IA moderne.
Le partenariat avec Cerebras est particulièrement remarquable en raison de l'accent mis par Cerebras sur le développement de puces spécialisées optimisées pour les charges de travail d'IA. Contrairement aux processeurs à usage général, les puces de Cerebras, connues sous le nom de moteurs à l'échelle d'une tranche de silicium (« wafer-scale engines »), sont conçues pour accélérer l'entraînement des modèles d'IA en fournissant plus de mémoire et de puissance de calcul dans un seul appareil. Cette approche pourrait potentiellement conduire à des temps d'entraînement plus rapides et à une amélioration des performances des modèles d'IA d'OpenAI.
La demande croissante de puissance de calcul dans l'IA soulève d'importantes questions concernant la consommation d'énergie et la durabilité environnementale. À mesure que les modèles d'IA deviennent plus complexes, l'énergie nécessaire pour les entraîner et les exécuter augmente également. Cela a suscité des préoccupations croissantes quant à l'empreinte carbone de l'IA et à la nécessité de disposer de matériel et d'algorithmes plus efficaces sur le plan énergétique. Le développement de puces spécialisées comme celles de Cerebras représente une approche pour relever ces défis.
La collaboration entre OpenAI et Cerebras témoigne de l'évolution constante du paysage de l'IA et du rôle essentiel de l'innovation matérielle dans le progrès. À mesure que l'IA continue de progresser, les partenariats entre les entreprises d'IA et les fabricants de puces deviendront probablement encore plus importants pour façonner l'avenir de la technologie.
Discussion
Join the conversation
Be the first to comment