ChatGPT를 개발한 인공지능 회사 OpenAI는 수요일 실리콘 밸리 기반 스타트업인 Cerebras의 컴퓨터 칩을 사용하기 시작할 것이라고 발표했습니다. 이번 계약은 AI 개발 및 배포를 위한 컴퓨팅 인프라 확장을 모색하는 OpenAI의 칩 공급업체 다변화 노력의 최신 사례입니다.
OpenAI는 Cerebras 칩 사용량이 궁극적으로 750메가와트의 전력을 필요로 할 것이며, 이는 수만 가구에 전력을 공급하기에 충분한 양이라고 밝혔습니다. 이번 협력은 Nvidia, AMD, Broadcom과의 이전 계약에 이은 것으로, 점점 더 복잡해지는 AI 모델을 훈련하고 실행하는 데 필요한 컴퓨팅 자원을 확보하기 위한 OpenAI의 다각적인 접근 방식을 강조합니다.
OpenAI의 첨단 컴퓨팅 성능 추구는 기술 업계 전반의 광범위한 추세를 반영합니다. Amazon, Google, Meta, Microsoft와 같은 기업들은 AI 이니셔티브를 지원하기 위해 새로운 데이터 센터에 총 수천억 달러를 투자하고 있습니다. 이러한 시설은 대규모 언어 모델(LLM) 및 기타 AI 시스템을 훈련하는 데 필요한 특수 하드웨어 및 인프라를 수용하는 데 매우 중요합니다. ChatGPT를 구동하는 것과 같은 LLM은 인간 수준의 텍스트를 학습하고 생성하기 위해 방대한 데이터 세트와 컴퓨팅 자원을 필요로 합니다. 훈련 과정에는 모델에 방대한 양의 텍스트 데이터를 공급하고 텍스트를 예측하고 생성하는 능력을 향상시키기 위해 내부 매개변수를 조정하는 과정이 포함됩니다.
OpenAI는 텍사스주 애빌린과 텍사스, 뉴멕시코, 오하이오, 중서부 지역의 다른 지역에 데이터 센터를 건설할 계획이며, 데이터 센터 입지를 적극적으로 확장하고 있습니다. 이 회사는 이전에 16기가와트의 전력을 소비하는 Nvidia 및 AMD 칩을 배포할 계획을 밝혔으며, 이는 현대 AI의 막대한 에너지 수요를 강조합니다.
Cerebras와의 파트너십은 AI 워크로드에 최적화된 특수 칩 개발에 대한 Cerebras의 집중으로 인해 특히 주목할 만합니다. 범용 프로세서와 달리 웨이퍼 스케일 엔진으로 알려진 Cerebras의 칩은 단일 장치에서 더 많은 메모리와 컴퓨팅 성능을 제공하여 AI 모델의 훈련을 가속화하도록 설계되었습니다. 이러한 접근 방식은 잠재적으로 OpenAI의 AI 모델에 대한 더 빠른 훈련 시간과 향상된 성능으로 이어질 수 있습니다.
AI에서 컴퓨팅 성능에 대한 수요 증가는 에너지 소비 및 환경 지속 가능성에 대한 중요한 질문을 제기합니다. AI 모델이 더욱 복잡해짐에 따라 모델을 훈련하고 실행하는 데 필요한 에너지도 증가하고 있습니다. 이로 인해 AI의 탄소 발자국과 보다 에너지 효율적인 하드웨어 및 알고리즘의 필요성에 대한 우려가 커지고 있습니다. Cerebras의 칩과 같은 특수 칩의 개발은 이러한 문제를 해결하기 위한 한 가지 접근 방식을 나타냅니다.
OpenAI와 Cerebras 간의 협력은 AI 환경의 지속적인 진화와 발전을 주도하는 하드웨어 혁신의 중요한 역할을 의미합니다. AI가 계속 발전함에 따라 AI 회사와 칩 제조업체 간의 파트너십은 기술의 미래를 형성하는 데 더욱 중요해질 것입니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요