Der Appetit auf alternative Clouds war noch nie größer.
CoreWeave, der GPU-Infrastrukturanbieter, der als Kryptowährungs-Mining-Operation begann, hat in dieser Woche 1,1 Milliarden Dollar an neuen Mitteln von Investoren wie Coatue, Fidelity und Altimeter Capital aufgebracht. Der Start-up wird angeblich nach dem Deal mit 19 Milliarden Dollar bewertet, wobei das neue Finanzierungsrunde CoreWeaves insgesamt auf 5 Milliarden Dollar an Schulden und Eigenkapital erhöht – eine bemerkenswerte Summe für ein Unternehmen, das weniger als ein Jahrzehnt alt ist.
Es ist nicht nur CoreWeave.
Lambda Labs, das ebenfalls eine Reihe von Cloud-gehosteten GPU-Instanzen anbietet, sicherte sich im April einen „Sonderfinanzierungsvehikel“ von bis zu 500 Millionen Dollar, nur wenige Monate nach Abschluss einer Finanzierungsrunde der Serie C in Höhe von 320 Millionen Dollar. Voltage Park, die von Crypto-Milliardär Jed McCaleb unterstützt wird, verkündete im letzten Oktober, dass sie 500 Millionen Dollar in GPU-basierte Rechenzentren investiert. Und Together AI, ein Cloud-GPU-Host, der ebenfalls generative KI-Forschung betreibt, erhielt im März 106 Millionen Dollar in einer von Salesforce geleiteten Runde.
Warum also die Begeisterung für — und das Geld, das in den alternativen Cloud-Bereich fließt? In drei Worten, generative künstliche Intelligenz.
Da der Boom im Bereich der generativen KI weitergeht, steigt auch die Nachfrage nach der Hardware, um generative KI-Modelle im großen Umfang auszuführen und zu trainieren. GPUs sind architektonisch die logische Wahl für das Training, die Feinabstimmung und den Einsatz von Modellen, da sie Tausende von Kernen enthalten, die parallel arbeiten können, um die linearen Algebra-Gleichungen durchzuführen, aus denen generative Modelle bestehen.
Aber die Installation von GPUs ist teuer. Die meisten Entwickler und Organisationen entscheiden sich daher für die Cloud.
Die etablierten Unternehmen im Cloud-Computing-Bereich — Amazon Web Services (AWS), Google Cloud und Microsoft Azure — bieten eine Fülle von GPU- und speziellen Hardware-Instanzen, die für generative KI-Workloads optimiert sind. Aber für einige Modelle und Projekte können alternative Clouds letztendlich kostengünstiger sein — und eine bessere Verfügbarkeit bieten.
Auf CoreWeave kostet die Miete eines Nvidia A100 40GB — eine beliebte Wahl für das Modelltraining und die Inferenz — 2,39 US-Dollar pro Stunde, was sich auf 1.200 US-Dollar pro Monat beläuft. Auf Azure kostet die gleiche GPU 3,40 US-Dollar pro Stunde oder 2.482 US-Dollar pro Monat; auf Google Cloud sind es 3,67 US-Dollar pro Stunde oder 2.682 US-Dollar pro Monat.
Angesichts dessen, dass generative KI-Workloads normalerweise auf GPU-Clustern ausgeführt werden, wachsen die Kostendifferenzen schnell.
„Unternehmen wie CoreWeave nehmen an einem Markt teil, den wir als spezialisierte ‚GPU-as-a-Service‘-Cloud-Anbieter bezeichnen“, sagte Sid Nag, VP für Cloud-Services und -Technologien bei Gartner, gegenüber TechCrunch. „Angesichts der hohen Nachfrage nach GPUs bieten sie eine Alternative zu den Hyperscalern, wo sie Nvidia-GPUs genommen haben und einen anderen Marktzugang und Zugang zu diesen GPUs bereitstellen.“
Nag weist darauf hin, dass sogar einige große Technologieunternehmen begonnen haben, auf alternative Cloud-Anbieter zurückzugreifen, da sie sich mit Kapazitätsherausforderungen konfrontiert sehen.
Im Juni berichtete CNBC, dass Microsoft einen mehrere Milliarden Dollar schweren Vertrag mit CoreWeave abgeschlossen hatte, um sicherzustellen, dass OpenAI, der Hersteller von ChatGPT und ein enger Partner von Microsoft, über ausreichende Rechenleistung verfügt, um seine generativen KI-Modelle zu trainieren. Nvidia, der Hauptlieferant von CoreWeaves Chips, sieht dies als einen wünschenswerten Trend, möglicherweise aus Hebel-Gründen; es wird gesagt, dass einige alternative Cloud-Anbieter bevorzugten Zugang zu ihren GPUs erhalten haben.
Lee Sustar, Hauptanalyst bei Forrester, sieht Cloud-Anbieter wie CoreWeave teilweise deshalb erfolgreich, weil sie nicht mit der „Infrastruktur-Bagage“ zu kämpfen haben, mit der etablierte Anbieter konfrontiert sind.
„Angesichts der Vorherrschaft der Hyperscaler auf dem Gesamtmarkt für öffentliche Clouds, die riesige Investitionen in Infrastruktur und Dienstleistungsbereiche erfordern, die wenig oder gar keinen Umsatz generieren, haben Herausforderer wie CoreWeave die Möglichkeit, mit einem Fokus auf Premium-KI-Dienstleistungen ohne die Belastung durch Hyperscaler-Investitionen insgesamt erfolgreich zu sein“, so Sustar.
Ist dieses Wachstum jedoch nachhaltig?
Sustar hat seine Zweifel. Er glaubt, dass das Wachstum der alternativen Cloud-Anbieter sowohl davon abhängig sein wird, ob sie weiterhin GPUs in hoher Stückzahl bereitstellen können, als auch davon, ob sie diese zu wettbewerbsfähig niedrigen Preisen anbieten können.
Der Wettbewerb um Preise könnte in Zukunft herausfordernd werden, da etablierte Unternehmen wie Google, Microsoft und AWS ihre Investitionen in kundenspezifische Hardware zur Ausführung und Schulung von Modellen verstärken. So bietet Google seine TPUs an; Microsoft hat kürzlich zwei spezielle Chips, Azure Maia und Azure Cobalt, vorgestellt; und AWS hat Trainium, Inferentia und Graviton.
„Die Hyperscaler werden ihre kundenspezifischen Chips nutzen, um ihre Abhängigkeiten von Nvidia zu mindern, während Nvidia nach CoreWeave und anderen GPU-zentrierten KI-Clouds Ausschau hält“, sagte Sustar.
Dann gibt es die Tatsache, dass, obwohl viele generative KI-Workloads am besten auf GPUs laufen, nicht alle Workloads sie benötigen, insbesondere wenn sie nicht zeitsensitiv sind. CPUs können die notwendigen Berechnungen durchführen, jedoch in der Regel langsamer als GPUs und benutzerdefinierte Hardware.
Im Bereich der existenziellen Bedenken für alternative Cloud-Anbieter besteht die Bedrohung darin, dass die Blase der generativen KI platzt, was dazu führen würde, dass die Anbieter Berge von GPUs haben und weit weniger Kunden, die diese nachfragen. Aber die Zukunft sieht auf kurze Sicht rosig aus, sagen Sustar und Nag, die mit einem stetigen Strom von aufstrebenden Clouds rechnen.
„GPU-orientierte Cloud-Startups werden [Etablierte] reichlich Konkurrenz bieten, insbesondere bei Kunden, die bereits Multi-Cloud sind und mit der Komplexität von Management, Sicherheit, Risiko und Compliance über mehrere Clouds umgehen können“, sagte Sustar. „Diese Art von Cloud-Kunden sind bereit, eine neue KI-Cloud auszuprobieren, wenn sie über glaubwürdiges Führungspersonal, solide finanzielle Unterstützung und GPUs ohne Wartezeiten verfügt.“