A OpenAI anunciou na quarta-feira que começará a usar chips da Cerebras, uma startup sediada em Sunnyvale, Califórnia, para expandir suas capacidades de computação para tecnologias de inteligência artificial. O acordo fará com que a OpenAI utilize um número significativo de chips da Cerebras, consumindo aproximadamente 750 megawatts de eletricidade, o suficiente para abastecer dezenas de milhares de residências.
Esta parceria marca a mais recente de uma série de colaborações para a OpenAI, à medida que a empresa procura reforçar o poder computacional necessário para desenvolver e implementar seus modelos de IA, incluindo o ChatGPT. A empresa já firmou acordos com a Nvidia e a AMD para seus chips e também está trabalhando com a Broadcom para projetar seus próprios chips personalizados.
A busca da OpenAI por uma infraestrutura de computação aprimorada reflete uma tendência mais ampla dentro da indústria de tecnologia. Empresas como OpenAI, Amazon, Google, Meta e Microsoft estão investindo coletivamente centenas de bilhões de dólares em novos data centers para suportar as crescentes demandas de IA. Essas empresas devem gastar mais de US$ 325 bilhões nessas instalações até o final deste ano. A OpenAI está construindo ativamente data centers em Abilene, Texas, e planejando instalações adicionais em outros locais no Texas, Novo México, Ohio e Centro-Oeste.
A necessidade de um poder de computação tão massivo decorre da natureza da IA moderna, particularmente de grandes modelos de linguagem como o ChatGPT. Esses modelos são treinados em vastos conjuntos de dados e exigem imensas capacidades de processamento para aprender padrões e gerar texto com qualidade humana. Quanto mais dados e mais complexo o modelo, maior a demanda por recursos de computação. Essa demanda alimentou um aumento na inovação na indústria de chips, com empresas como a Cerebras desenvolvendo hardware especializado projetado para acelerar as cargas de trabalho de IA.
A abordagem da Cerebras envolve a construção de chips muito grandes, conhecidos como engines de escala de wafer, que podem lidar com grandes quantidades de dados em paralelo. Essa arquitetura é particularmente adequada para treinar modelos de IA, que geralmente envolvem o processamento simultâneo de grandes lotes de dados.
A OpenAI havia declarado anteriormente que implantaria chips Nvidia e AMD suficientes para consumir 16 gigawatts de energia, destacando a escala de suas ambições de computação. A adição de chips Cerebras ressalta ainda mais o compromisso da empresa em garantir os recursos necessários para permanecer na vanguarda do desenvolvimento de IA. As implicações dessa rápida expansão das capacidades de IA são de longo alcance, impactando potencialmente vários setores, desde saúde e educação até finanças e transporte. À medida que os modelos de IA se tornam mais poderosos e generalizados, as questões em torno de seu uso ético, potenciais preconceitos e impacto social se tornam cada vez mais importantes.
Discussion
Join the conversation
Be the first to comment