OpenAI anunció el miércoles que comenzaría a utilizar chips de Cerebras, una startup con sede en Sunnyvale, California, para expandir sus capacidades de computación para tecnologías de inteligencia artificial. El acuerdo permitirá a OpenAI utilizar un número significativo de chips de Cerebras, consumiendo aproximadamente 750 megavatios de electricidad, suficiente para abastecer a decenas de miles de hogares.
Esta asociación marca la más reciente de una serie de colaboraciones para OpenAI, ya que la empresa busca reforzar la potencia computacional necesaria para desarrollar e implementar sus modelos de IA, incluido ChatGPT. La empresa ha firmado previamente acuerdos con Nvidia y AMD para sus chips, y también está trabajando con Broadcom para diseñar sus propios chips personalizados.
La búsqueda de OpenAI de una infraestructura informática mejorada refleja una tendencia más amplia dentro de la industria tecnológica. Empresas como OpenAI, Amazon, Google, Meta y Microsoft están invirtiendo colectivamente cientos de miles de millones de dólares en nuevos centros de datos para respaldar las crecientes demandas de la IA. Se proyecta que estas empresas gastarán más de $325 mil millones en estas instalaciones solo para finales de este año. OpenAI está construyendo activamente centros de datos en Abilene, Texas, y planea instalaciones adicionales en otras ubicaciones en Texas, Nuevo México, Ohio y el Medio Oeste.
La necesidad de una potencia informática tan masiva proviene de la naturaleza de la IA moderna, particularmente de los grandes modelos de lenguaje como ChatGPT. Estos modelos se entrenan con vastos conjuntos de datos y requieren inmensas capacidades de procesamiento para aprender patrones y generar texto de calidad humana. Cuantos más datos y más complejo sea el modelo, mayor será la demanda de recursos informáticos. Esta demanda ha impulsado un aumento en la innovación en la industria de los chips, con empresas como Cerebras desarrollando hardware especializado diseñado para acelerar las cargas de trabajo de la IA.
El enfoque de Cerebras implica la construcción de chips muy grandes, conocidos como motores a escala de oblea, que pueden manejar cantidades masivas de datos en paralelo. Esta arquitectura es particularmente adecuada para entrenar modelos de IA, que a menudo implican el procesamiento simultáneo de grandes lotes de datos.
OpenAI había declarado previamente que implementaría suficientes chips de Nvidia y AMD para consumir 16 gigavatios de energía, lo que destaca la escala de sus ambiciones informáticas. La adición de chips de Cerebras subraya aún más el compromiso de la empresa de asegurar los recursos necesarios para permanecer a la vanguardia del desarrollo de la IA. Las implicaciones de esta rápida expansión de las capacidades de la IA son de gran alcance, y podrían afectar a varios sectores, desde la atención médica y la educación hasta las finanzas y el transporte. A medida que los modelos de IA se vuelven más poderosos y generalizados, las preguntas sobre su uso ético, los posibles sesgos y el impacto social se vuelven cada vez más importantes.
Discussion
Join the conversation
Be the first to comment