OpenAI a annoncé mercredi qu'elle commencerait à utiliser des puces de Cerebras, une startup basée à Sunnyvale, en Californie, afin d'étendre ses capacités de calcul pour les technologies d'intelligence artificielle. L'accord prévoit qu'OpenAI utilisera un nombre important de puces Cerebras, consommant environ 750 mégawatts d'électricité, soit suffisamment pour alimenter des dizaines de milliers de foyers.
Ce partenariat est le dernier d'une série de collaborations pour OpenAI, alors que l'entreprise cherche à renforcer la puissance de calcul nécessaire pour développer et déployer ses modèles d'IA, y compris ChatGPT. L'entreprise a déjà signé des accords avec Nvidia et AMD pour leurs puces, et travaille également avec Broadcom pour concevoir ses propres puces personnalisées.
La recherche d'OpenAI en matière d'infrastructure informatique améliorée reflète une tendance plus large au sein de l'industrie technologique. Des entreprises comme OpenAI, Amazon, Google, Meta et Microsoft investissent collectivement des centaines de milliards de dollars dans de nouveaux centres de données pour répondre aux demandes croissantes de l'IA. Ces entreprises devraient dépenser plus de 325 milliards de dollars dans ces installations d'ici la fin de cette année seulement. OpenAI construit activement des centres de données à Abilene, au Texas, et prévoit d'autres installations dans d'autres endroits du Texas, du Nouveau-Mexique, de l'Ohio et du Midwest.
Le besoin d'une telle puissance de calcul massive découle de la nature de l'IA moderne, en particulier des grands modèles linguistiques comme ChatGPT. Ces modèles sont entraînés sur de vastes ensembles de données et nécessitent d'immenses capacités de traitement pour apprendre des schémas et générer du texte de qualité humaine. Plus il y a de données et plus le modèle est complexe, plus la demande en ressources informatiques est forte. Cette demande a alimenté une vague d'innovation dans l'industrie des puces, avec des entreprises comme Cerebras qui développent du matériel spécialisé conçu pour accélérer les charges de travail de l'IA.
L'approche de Cerebras consiste à construire de très grandes puces, connues sous le nom de moteurs à l'échelle de la tranche (wafer-scale engines), qui peuvent traiter des quantités massives de données en parallèle. Cette architecture est particulièrement bien adaptée à l'entraînement des modèles d'IA, qui impliquent souvent le traitement simultané de grands lots de données.
OpenAI avait précédemment déclaré qu'elle déploierait suffisamment de puces Nvidia et AMD pour consommer 16 gigawatts d'électricité, soulignant ainsi l'ampleur de ses ambitions informatiques. L'ajout de puces Cerebras souligne encore davantage l'engagement de l'entreprise à sécuriser les ressources nécessaires pour rester à l'avant-garde du développement de l'IA. Les implications de cette expansion rapide des capacités de l'IA sont considérables, et pourraient avoir un impact sur divers secteurs, de la santé et de l'éducation à la finance et aux transports. À mesure que les modèles d'IA deviennent plus puissants et omniprésents, les questions relatives à leur utilisation éthique, aux biais potentiels et à l'impact sociétal deviennent de plus en plus importantes.
Discussion
Join the conversation
Be the first to comment