Grote techbedrijven investeren fors in CoreWeave, de meest prominente ‘GPU-as-a-Service’-speler anno 2025. De meest recente klant van formaat is OpenAI, terwijl Microsoft juist contracten opzegt. Wat is er aan de hand?
We schreven in oktober al uitvoerig over CoreWeave, dat destijds zich in de kijker had gespeeld bij Cisco. Met een recente overname van Weight & Biases, een partnership met Pure Storage, en een beursgang in de aantocht, lijkt de toekomst positief.
Toch stormt het rondom de GPU-aanbieder. Microsoft zou dermate ontevreden zijn met CoreWeave dat het enkele overeenkomsten heeft opgezegd. Dit besluit werd genomen op basis van gemiste deadlines en leveringsproblemen, zo berichtten we vorige week. Het kan CoreWeave miljarden schelen, aangezien Microsoft tien miljard dollar had toegezegd binnen de komende vijf jaar.
Contracten voor (een waarde van) miljarden
Afgelopen maandag bracht de nieuwscyclus weer opgewekte berichtgeving: OpenAI sloot een contract met CoreWeave ter waarde van 11,9 miljard dollar. Ook zal de GPU-aanbieder 350 miljoen dollar aan aandelen aan OpenAI overhandigen zodra de IPO rond is. In totaal mikt CoreWeave op een marktwaarde van 35 miljard dollar.
Wie puur naar de cijfers kijkt, heeft meer reden tot verheuging. Zo schoot de jaaromzet omhoog van 228,9 miljoen dollar (2023) naar 1,92 miljard dollar in het afgelopen kalenderjaar. Netto wordt er echter nog altijd verlies gedraaid: 863,4 miljoen in 2024 tegenover 593,7 miljoen dollar in het jaar ervoor.
OpenAI versus Microsoft
OpenAI heeft zelf GPU’s, maar moet alsnog elders aankloppen voor capaciteit. Immers heeft het bedrijf achter ChatGPT een tekort. De GPU’s “zijn op”, zoals CEO Sam Altman al onthulde. Het zou een verklaring zijn voor het feit dat GPT-4.5 niet GPT-5 heet en de daaraan gepaarde reuzensprong in prestaties levert. CoreWeave zou weleens de sleutel kunnen zijn naar nieuwe succesvolle LLM-innovaties.
Overigens vermoedt The Next Platform met goede redenen dat de rekenkracht bij CoreWeave voor OpenAI helemaal niet gericht is op AI-training, maar inference. Door de eigen modellen via ChatGPT en de OpenAI API op externe hardware te draaien, wordt er wellicht genoeg ruimte vrijgemaakt op eigen servers voor nieuwe training.
In hetzelfde artikel wordt gespeculeerd dat de band tussen OpenAI en Microsoft verder aan het afbrokkelen is. Nadat laatstgenoemde circa 10 miljard dollar had geïnvesteerd in OpenAI in 2023, is de relatie ogenschijnlijk bekoeld. Microsoft zou zelf AI-modellen aan het bouwen zijn om met OpenAI te concurreren. OpenAI zou op de eigen beurt geleidelijk van Azure aan het afstappen zijn, waar het (naar het lijkt) een korting van 50 procent op had.
CoreWeave zelf
Het verschil tussen de GPU-cloud van CoreWeave en Azure van Microsoft is enorm. Afgezien van de basale capaciteit om AI-training en -inferencing te huisvesten zijn de overeenkomsten nihil. De Azure-stack is complex en gericht op flexibiliteit, terwijl het public cloud-concept van ‘iemands anders computer’ uiterst nauw overeenkomst met wat CoreWeave doet. Platgeslagen: CoreWeave verhuurt een berg Nvidia-GPU’s, u doet er verder mee wat u wilt. Er wordt op elk uur afgerekend, ongeacht of ze in gebruik zijn of belast worden tijdens een workload. Voortdurend is dat niet het geval: de ‘idle time’ van een enkele GPU is enorm zonder de soort low-level trucjes die een partij als DeepSeek heeft uitgevoerd.
Er schuilt echter meer achter wat CoreWeave aanbiedt. Allereerst nieuwigheid: omdat CoreWeave een Elite Cloud Services Provider is voor Nvidia (en tevens aanbieder van het eerste uur), is de toegang tot de snelste Nvidia-chips hier het vroegst beschikbaar. Zo werd de Nvidia GB200 NVL72 begin februari al geïntroduceerd bij CoreWeave. Een tweede voordeel van en voor CoreWeave is dat het de eigen infrastructuur bijna volledig kan toewijden op de GPU-clusters. Natuurlijk, er zijn ook CPU-nodes (CPU’s zijn ook nodig als dirigenten van workloads met vele GPU’s), maar het bestaansrecht van CoreWeave ontleent het aan de grote AI-rekencapaciteit, en die leunt stevig op Nvidia’s GPU’s.
Dit leidt ertoe dat CoreWeave’s infrastructuur de blauwdruk van Nvidia in zijn geheel volgt. Zo zijn er Node Pools met InfiniBand-ondersteuning (Nvidia’s eigen alternatief voor Ethernet voor GPU-interconnectiviteit), die Nvidia-hardware optimaal benutten en niet compatibel zijn met GPU’s van AMD en Intel. Hieraan voegt CoreWeave-software toe zoals de Fleet Lifecycle Controller (FLCC) voor het bijhouden van server health, naast andere observability-functionaliteit.
Dit zijn features die sommige partijen wellicht liever zelf uitvoeren. We kunnen ons voorstellen dat OpenAI net als DeepSeek er eigen optimalisaties op nahoudt voor GPU-gebruik. Maar het feit dat CoreWeave zó Nvidia-specifiek is, levert voordelen op voor grootgebruikers. CoreWeave’s Kubernetes Service (CKS) zou bijvoorbeeld Kubernetes-flexibiliteit op moeten leveren met bare metal-snelheid, iets dat veel minder eenvoudig is als je aandacht moet worden verdeeld over meerdere GPU-vendoren. OpenAI zou dit kunnen inzetten voor AI-inferencing op een schaalbare manier, met alsnog imposant lage latency.
Conclusie: beloftes waarmaken
De theoretische voordelen van CoreWeave zijn groot. Toch heeft het Microsoft teleurgesteld. De vraag is of de AI-hyperscaler wel zo schaalbaar is als het suggereert. Met CoreWeave als de voornaamste GPU-as-a-Service-speler heeft partner Nvidia er belang bij dat het imago van eerstgenoemde niet wordt geschaad voor op de lange termijn. Zo wordt OpenAI mogelijk de profiteur van Microsoft’s frustraties.
Lees ook: Waarom Cisco geïnteresseerd is in AI-succesverhaal CoreWeave