OpenAI gab am Mittwoch bekannt, dass es mit der Nutzung von Chips von Cerebras beginnen wird, einem Startup-Unternehmen mit Sitz in Sunnyvale, Kalifornien, um seine Rechenkapazitäten für Technologien der künstlichen Intelligenz zu erweitern. Im Rahmen der Vereinbarung wird OpenAI eine beträchtliche Anzahl von Cerebras-Chips nutzen, die etwa 750 Megawatt Strom verbrauchen, genug, um Zehntausende von Haushalten mit Strom zu versorgen.
Diese Partnerschaft ist die jüngste in einer Reihe von Kooperationen für OpenAI, da das Unternehmen bestrebt ist, die Rechenleistung zu stärken, die für die Entwicklung und den Einsatz seiner KI-Modelle, einschließlich ChatGPT, erforderlich ist. Das Unternehmen hat zuvor Verträge mit Nvidia und AMD über deren Chips unterzeichnet und arbeitet auch mit Broadcom zusammen, um eigene kundenspezifische Chips zu entwickeln.
Das Streben von OpenAI nach einer verbesserten Recheninfrastruktur spiegelt einen breiteren Trend innerhalb der Technologiebranche wider. Unternehmen wie OpenAI, Amazon, Google, Meta und Microsoft investieren gemeinsam Hunderte von Milliarden Dollar in neue Rechenzentren, um den wachsenden Anforderungen der KI gerecht zu werden. Es wird prognostiziert, dass diese Unternehmen bis Ende dieses Jahres allein über 325 Milliarden Dollar für diese Einrichtungen ausgeben werden. OpenAI baut aktiv Rechenzentren in Abilene, Texas, und plant weitere Einrichtungen an anderen Standorten in Texas, New Mexico, Ohio und dem Mittleren Westen.
Der Bedarf an solch massiver Rechenleistung rührt von der Natur der modernen KI her, insbesondere von großen Sprachmodellen wie ChatGPT. Diese Modelle werden mit riesigen Datensätzen trainiert und benötigen immense Verarbeitungskapazitäten, um Muster zu erlernen und Texte in menschlicher Qualität zu generieren. Je mehr Daten und je komplexer das Modell, desto größer der Bedarf an Rechenressourcen. Diese Nachfrage hat einen Innovationsschub in der Chipindustrie ausgelöst, wobei Unternehmen wie Cerebras spezialisierte Hardware entwickeln, die darauf ausgelegt ist, KI-Workloads zu beschleunigen.
Der Ansatz von Cerebras besteht darin, sehr große Chips zu bauen, die als Wafer-Scale-Engines bekannt sind und massive Datenmengen parallel verarbeiten können. Diese Architektur eignet sich besonders gut für das Training von KI-Modellen, bei dem oft große Datenmengen gleichzeitig verarbeitet werden.
OpenAI hatte zuvor erklärt, dass es genügend Nvidia- und AMD-Chips einsetzen würde, um 16 Gigawatt Strom zu verbrauchen, was das Ausmaß seiner Rechenambitionen unterstreicht. Die Hinzufügung von Cerebras-Chips unterstreicht das Engagement des Unternehmens, sich die Ressourcen zu sichern, die erforderlich sind, um an der Spitze der KI-Entwicklung zu bleiben. Die Auswirkungen dieser raschen Ausweitung der KI-Fähigkeiten sind weitreichend und können verschiedene Sektoren beeinflussen, von Gesundheitswesen und Bildung bis hin zu Finanzen und Transport. Da KI-Modelle immer leistungsfähiger und allgegenwärtiger werden, werden Fragen rund um ihre ethische Nutzung, potenzielle Verzerrungen und gesellschaftliche Auswirkungen immer wichtiger.
Discussion
Join the conversation
Be the first to comment