OpenAIは水曜日、カリフォルニア州サニーベールに拠点を置く新興企業Cerebrasのチップを使用し、人工知能技術向けのコンピューティング能力を拡張すると発表しました。この合意により、OpenAIは相当数のCerebrasチップを利用し、約750メガワットの電力を消費することになります。これは、数万世帯に電力を供給するのに十分な量です。
この提携は、ChatGPTを含むAIモデルの開発と展開に必要な計算能力を強化しようとするOpenAIにとって、一連の協力関係における最新のものです。同社は以前、NvidiaやAMDとチップに関する契約を締結しており、Broadcomとも協力して独自のカスタムチップを設計しています。
OpenAIによるコンピューティングインフラの強化の追求は、テクノロジー業界におけるより広範なトレンドを反映しています。OpenAI、Amazon、Google、Meta、Microsoftなどの企業は、AIの需要の高まりをサポートするために、新しいデータセンターに総額数千億ドルを投資しています。これらの企業は、今年末までにこれらの施設に3,250億ドル以上を費やすと予測されています。OpenAIは、テキサス州アビリーンにデータセンターを積極的に建設しており、テキサス州、ニューメキシコ州、オハイオ州、中西部地域の他の場所にも追加の施設を計画しています。
このような大規模なコンピューティング能力の必要性は、現代のAI、特にChatGPTのような大規模言語モデルの性質に起因します。これらのモデルは、膨大なデータセットでトレーニングされ、パターンを学習し、人間品質のテキストを生成するために、膨大な処理能力を必要とします。データ量が多く、モデルが複雑になるほど、コンピューティングリソースの需要は高まります。この需要は、Cerebrasのような企業がAIワークロードを加速するように設計された特殊なハードウェアを開発し、チップ業界におけるイノベーションの急増を促進しています。
Cerebrasのアプローチは、ウェハースケールエンジンとして知られる非常に大きなチップを構築し、大量のデータを並行して処理できるようにすることです。このアーキテクチャは、大量のデータを同時に処理することが多いAIモデルのトレーニングに特に適しています。
OpenAIは以前、16ギガワットの電力を消費するのに十分なNvidiaおよびAMDチップを展開すると述べており、そのコンピューティングの野心的な規模を強調していました。Cerebrasチップの追加は、AI開発の最前線にとどまるために必要なリソースを確保するという同社のコミットメントをさらに強調するものです。このAI機能の急速な拡大の影響は広範囲に及び、医療や教育から金融や輸送まで、さまざまな分野に影響を与える可能性があります。AIモデルがより強力になり、普及するにつれて、その倫理的な使用、潜在的な偏見、および社会への影響に関する疑問がますます重要になっています。
Discussion
Join the conversation
Be the first to comment