OpenAI, la empresa de inteligencia artificial detrás de ChatGPT, anunció el miércoles que comenzará a utilizar chips de computadora de Cerebras, una startup con sede en Silicon Valley. El acuerdo marca el esfuerzo más reciente de OpenAI para diversificar sus proveedores de chips mientras busca expandir su infraestructura informática para el desarrollo y la implementación de la IA.
La compañía declaró que la cantidad de chips de Cerebras que pretende utilizar eventualmente requerirá 750 megavatios de electricidad, una cantidad suficiente para alimentar decenas de miles de hogares. Esta colaboración sigue a acuerdos anteriores con Nvidia, AMD y Broadcom, lo que destaca el enfoque multifacético de OpenAI para asegurar los recursos computacionales necesarios para entrenar y ejecutar modelos de IA cada vez más complejos.
La búsqueda de OpenAI de potencia informática avanzada refleja una tendencia más amplia dentro de la industria tecnológica. Empresas como Amazon, Google, Meta y Microsoft están invirtiendo colectivamente cientos de miles de millones de dólares en nuevos centros de datos para respaldar sus iniciativas de IA. Estas instalaciones son cruciales para albergar el hardware especializado y la infraestructura necesaria para entrenar modelos de lenguaje grandes (LLM) y otros sistemas de IA. Los LLM, como el que impulsa ChatGPT, requieren conjuntos de datos masivos y recursos computacionales para aprender y generar texto de calidad humana. El proceso de entrenamiento implica alimentar el modelo con grandes cantidades de datos de texto y ajustar sus parámetros internos para mejorar su capacidad de predecir y generar texto.
OpenAI está expandiendo activamente su huella de centros de datos, con instalaciones planificadas para Abilene, Texas, y otras ubicaciones en Texas, Nuevo México, Ohio y el Medio Oeste. La compañía reveló previamente planes para implementar chips de Nvidia y AMD que consumen 16 gigavatios de energía, lo que subraya las inmensas demandas de energía de la IA moderna.
La asociación con Cerebras es particularmente notable debido al enfoque de Cerebras en el desarrollo de chips especializados optimizados para cargas de trabajo de IA. A diferencia de los procesadores de propósito general, los chips de Cerebras, conocidos como motores a escala de oblea, están diseñados para acelerar el entrenamiento de modelos de IA al proporcionar más memoria y potencia computacional en un solo dispositivo. Este enfoque podría conducir potencialmente a tiempos de entrenamiento más rápidos y un mejor rendimiento para los modelos de IA de OpenAI.
La creciente demanda de potencia informática en la IA plantea preguntas importantes sobre el consumo de energía y la sostenibilidad ambiental. A medida que los modelos de IA se vuelven más complejos, la energía necesaria para entrenarlos y ejecutarlos también aumenta. Esto ha generado una creciente preocupación por la huella de carbono de la IA y la necesidad de hardware y algoritmos más eficientes energéticamente. El desarrollo de chips especializados como los de Cerebras representa un enfoque para abordar estos desafíos.
La colaboración entre OpenAI y Cerebras significa la evolución continua del panorama de la IA y el papel fundamental de la innovación en hardware para impulsar el progreso. A medida que la IA continúa avanzando, las asociaciones entre las empresas de IA y los fabricantes de chips probablemente se volverán aún más importantes para dar forma al futuro de la tecnología.
Discussion
Join the conversation
Be the first to comment