ChatGPTを開発した人工知能企業OpenAIは水曜日、シリコンバレーに拠点を置く新興企業Cerebrasのコンピューターチップの使用を開始すると発表しました。この合意は、AIの開発と展開のためのコンピューティングインフラストラクチャを拡大しようとするOpenAIの、チップサプライヤーの多様化に向けた最新の取り組みとなります。
同社は、利用を予定しているCerebrasのチップの数は最終的に750メガワットの電力を必要とし、これは数万世帯に電力を供給するのに十分な量になると述べました。この協力は、Nvidia、AMD、Broadcomとの以前の合意に続くものであり、OpenAIがますます複雑化するAIモデルのトレーニングと実行に必要な計算リソースを確保するための多角的なアプローチを強調しています。
OpenAIによる高度なコンピューティングパワーの追求は、テクノロジー業界におけるより広範なトレンドを反映しています。Amazon、Google、Meta、Microsoftなどの企業は、AIイニシアチブをサポートするために、総額数千億ドルを新しいデータセンターに投資しています。これらの施設は、大規模言語モデル(LLM)やその他のAIシステムをトレーニングするために必要な、特殊なハードウェアとインフラストラクチャを収容するために不可欠です。ChatGPTを動かすものと同様のLLMは、人間品質のテキストを学習および生成するために、大量のデータセットと計算リソースを必要とします。トレーニングプロセスでは、モデルに膨大な量のテキストデータを供給し、テキストを予測および生成する能力を向上させるために内部パラメーターを調整します。
OpenAIは、テキサス州アビリーンや、テキサス州、ニューメキシコ州、オハイオ州、中西部地域の他の場所に施設を計画しており、データセンターのフットプリントを積極的に拡大しています。同社は以前、16ギガワットの電力を消費するNvidiaおよびAMDチップを展開する計画を開示しており、これは最新のAIの莫大なエネルギー需要を強調しています。
Cerebrasとの提携は、CerebrasがAIワークロードに最適化された特殊なチップの開発に注力しているため、特に注目に値します。汎用プロセッサとは異なり、Cerebrasのチップ(ウェハースケールエンジンとして知られています)は、単一のデバイスでより多くのメモリと計算能力を提供することにより、AIモデルのトレーニングを加速するように設計されています。このアプローチにより、OpenAIのAIモデルのトレーニング時間が短縮され、パフォーマンスが向上する可能性があります。
AIにおけるコンピューティングパワーの需要の増加は、エネルギー消費と環境の持続可能性に関する重要な問題を提起します。AIモデルがより複雑になるにつれて、それらをトレーニングおよび実行するために必要なエネルギーも増加しています。これにより、AIのカーボンフットプリントと、よりエネルギー効率の高いハードウェアおよびアルゴリズムの必要性に対する懸念が高まっています。Cerebrasのような特殊なチップの開発は、これらの課題に対処するための1つのアプローチを表しています。
OpenAIとCerebrasの間の協力は、AIの状況の継続的な進化と、進歩を推進する上でのハードウェアイノベーションの重要な役割を示しています。AIが進化し続けるにつれて、AI企業とチップメーカー間のパートナーシップは、テクノロジーの未来を形作る上でさらに重要になる可能性があります。
Discussion
Join the conversation
Be the first to comment