A OpenAI, a empresa de inteligência artificial por trás do ChatGPT, anunciou na quarta-feira que começará a usar chips de computador da Cerebras, uma startup sediada no Vale do Silício. O acordo marca o mais recente esforço da OpenAI para diversificar seus fornecedores de chips, buscando expandir sua infraestrutura de computação para o desenvolvimento e implantação de IA.
A empresa declarou que o número de chips Cerebras que pretende utilizar exigirá eventualmente 750 megawatts de eletricidade, uma quantidade suficiente para abastecer dezenas de milhares de residências. Esta colaboração segue acordos anteriores com Nvidia, AMD e Broadcom, destacando a abordagem multifacetada da OpenAI para garantir os recursos computacionais necessários para treinar e executar modelos de IA cada vez mais complexos.
A busca da OpenAI por poder de computação avançado reflete uma tendência mais ampla dentro da indústria de tecnologia. Empresas como Amazon, Google, Meta e Microsoft estão investindo coletivamente centenas de bilhões de dólares em novos data centers para apoiar suas iniciativas de IA. Essas instalações são cruciais para abrigar o hardware especializado e a infraestrutura necessária para treinar grandes modelos de linguagem (LLMs) e outros sistemas de IA. LLMs, como o que alimenta o ChatGPT, exigem conjuntos de dados massivos e recursos computacionais para aprender e gerar texto com qualidade humana. O processo de treinamento envolve alimentar o modelo com vastas quantidades de dados de texto e ajustar seus parâmetros internos para melhorar sua capacidade de prever e gerar texto.
A OpenAI está expandindo ativamente sua presença em data centers, com instalações planejadas para Abilene, Texas, e outros locais no Texas, Novo México, Ohio e Centro-Oeste. A empresa divulgou anteriormente planos para implantar chips Nvidia e AMD consumindo 16 gigawatts de energia, ressaltando as imensas demandas de energia da IA moderna.
A parceria com a Cerebras é particularmente notável devido ao foco da Cerebras no desenvolvimento de chips especializados otimizados para cargas de trabalho de IA. Ao contrário dos processadores de uso geral, os chips da Cerebras, conhecidos como mecanismos de escala de wafer, são projetados para acelerar o treinamento de modelos de IA, fornecendo mais memória e poder computacional em um único dispositivo. Essa abordagem pode potencialmente levar a tempos de treinamento mais rápidos e melhor desempenho para os modelos de IA da OpenAI.
A crescente demanda por poder de computação em IA levanta questões importantes sobre o consumo de energia e a sustentabilidade ambiental. À medida que os modelos de IA se tornam mais complexos, a energia necessária para treiná-los e executá-los também aumenta. Isso levou a crescentes preocupações sobre a pegada de carbono da IA e a necessidade de hardware e algoritmos mais eficientes em termos de energia. O desenvolvimento de chips especializados como os da Cerebras representa uma abordagem para enfrentar esses desafios.
A colaboração entre OpenAI e Cerebras significa a evolução contínua do cenário da IA e o papel crítico da inovação de hardware no impulso ao progresso. À medida que a IA continua a avançar, as parcerias entre empresas de IA e fabricantes de chips provavelmente se tornarão ainda mais importantes na definição do futuro da tecnologia.
Discussion
Join the conversation
Be the first to comment