OpenAI ha firmado un acuerdo plurianual con Cerebras, un fabricante de chips de IA, para asegurar una cantidad sustancial de potencia informática. El acuerdo, valorado en más de 10.000 millones de dólares, proporcionará a OpenAI 750 megavatios de capacidad de cálculo a partir de este año y hasta 2028, según una fuente familiarizada con los detalles, según informaron TechCrunch y Reuters.
La colaboración tiene como objetivo acelerar la velocidad a la que OpenAI entrega resultados a sus clientes. En una entrada de blog, OpenAI declaró que los nuevos sistemas reducirían los tiempos de procesamiento de las solicitudes que actualmente requieren más tiempo. Ambas empresas destacaron la importancia de una mayor rapidez en los resultados para los usuarios de OpenAI.
Andrew Feldman, cofundador y CEO de Cerebras, trazó un paralelismo entre el impacto de la banda ancha en Internet y el potencial de la inferencia en tiempo real para transformar la IA. "Así como la banda ancha transformó Internet, la inferencia en tiempo real transformará la IA", dijo Feldman.
Cerebras, fundada hace más de una década, ha visto aumentar la atención desde el lanzamiento de ChatGPT en 2022 y el consiguiente auge del desarrollo de la IA. La empresa afirma que sus sistemas, que utilizan chips diseñados específicamente para tareas de IA, superan a los sistemas basados en GPU, como los que ofrece Nvidia. Estas afirmaciones no han sido verificadas de forma independiente.
La tecnología de la empresa se centra en el Wafer Scale Engine (WSE), una única oblea de silicio que contiene miles de procesadores interconectados. Esta arquitectura está diseñada para acelerar las cargas de trabajo de IA minimizando los cuellos de botella de comunicación entre los procesadores.
La demanda de potencia informática en la IA está impulsada por la creciente complejidad de los modelos de IA. El entrenamiento de estos modelos requiere grandes cantidades de datos y recursos computacionales. La inferencia, el proceso de utilizar un modelo entrenado para hacer predicciones, también se beneficia de velocidades de procesamiento más rápidas, especialmente para las aplicaciones que requieren respuestas en tiempo real.
Cerebras solicitó una oferta pública inicial (OPI) en 2024, pero desde entonces la ha pospuesto varias veces. Mientras tanto, la empresa ha seguido recaudando un capital importante. El martes se informó de que la empresa estaba en conversaciones.
Discussion
Join the conversation
Be the first to comment