In een paar jaar tijd is Nvidia’s jaarlijkse GTC getransformeerd van een niche evenement tot het centrum der AI-innovaties. Ook in 2025 zijn de verwachtingen hooggespannen. In dit overzicht pakken we de belangrijkste aankondigingen erbij van Nvidia zelf en een greep uit die van partners als HPE, Cisco en Pure Storage.
Aan ambitie geen gebrek. Nvidia kondigde niet alleen nieuwe GPU’s aan, maar ook 6G-innovaties, samenwerkingen met o.a. Google, T-Mobile en General Motors, een veiligheidssysteem voor zelfrijdende auto’s, fotonische netwerkswitches en open-source GPU libraries. Daarbovenop wordt het eerder aangekondigde Project DIGITS omgedoopt tot DGX Spark en DGX Station, “Personal AI Computers” (paic’s?) voor ontwikkelaars, onderzoekers en datawetenschappers.
Voor een volledig overzicht is de site van Nvidia te bezoeken; wij kunnen helaas niet alle aankondigingen even veel aandacht geven. We zullen focussen op het belangrijkste en voor Nvidia meest lucratieve product: Blackwell Ultra. Toch dient gezegd te worden dat we de opvolger hiervan al weten (en wisten): Rubin, vernoemd naar Amerikaans astronoom Vera Rubin. Daarna, zo blijkt, volgt Rubin Ultra, en dáárna Feynman, ter ere van Amerikaans fysicus Richard Feynman. Op een later tijdstip zullen we ongetwijfeld meer horen (en schrijven) over deze opvolgers, maar eerst de tweede, krachtigere fase van Blackwell.
Blackwell Ultra
Blackwell Ultra is een aanzienlijke verbetering ten opzichte van zijn voorganger. Een enkele B300 GPU is 1,5 keer sneller op het gebied van FP4-prestaties, maar eist hiervoor 1.400 Watt in plaats van 1.200 Watt. Het geheugen per GPU (288 GB) is eveneens met een factor van 1,5x toegenomen door een 12-laagse HBM3e-stack in plaats van acht lagen. Daarnaast is er geavanceerde waterkoeling toegepast en versnellen de ConnectX 8-netwerkkaarten de interconnectiviteit. De optische modules hierin zijn van een upgrade voorzien van 800G naar 1,6T networking. Voor energiebeheer introduceert de NVL72-rackopstelling een standaard capacitor tray en optionele Battery Backup Units (BBU) en meer dan 300 supercondensatoren per rack. Daarnaast combineert de GB300 een Grace CPU met de Blackwell Ultra GPU en markeert het de eerste serverimplementatie van LPCAMM-geheugen.
Dat dit geheel prijzig wordt, moge duidelijk zijn. Hoewel Nvidia geen bedrag noemt, kost elke supercondensator naar verluidt 20.000 à 30.000 dollar. NVL72 heeft hier dus 300 van nodig. Tel daar de kosten voor de Grace CPU’s en reusachtige Blackwell GPU’s bij op en je komt op miljoenen dollars. Hyperscalers en AI-spelers zullen een fors aantal nodes willen bestellen, terwijl kleinere AI-startups en -scaleups er hooguit een handjevol kunnen veroorloven. Daarbovenop heeft Nvidia een achterstand in het leveren van Blackwell-chips, mede door ontwerpfouten bij deze generatie. Dat uitstel zal nog steeds voelbaar zijn wanneer Blackwell-opvolger Rubin arriveert.
Het opschalen voorbij enkele Blackwell Ultra-nodes wordt door Nvidia zeker aangemoedigd. Wie de allersnelste connectiviteit daarbij verlangt, kan voortaan fotonische netwerkswitches raadplegen: Spectrum-X Photonics. Hiermee moeten “AI-fabrieken”, ofwel AI-gerichte datacenters, kunnen schalen naar miljoenen GPU’s.
HPE
Nvidia’s hardware belandt vrijwel altijd in de handen van klanten via system integrators. Het geeft partijen als HPE, Cisco en Lenovo de kans om hun eigen oplossingen te combineren met de AI-rekenkracht van Blackwell en Blackwell Ultra. Vanuit HPE verschijnen er innovaties die zowel eenvoudig als schaalbaar te gebruiken zijn. Eén opvallend nieuw product is de AI ModPod. Deze modulaire “data center-in-a-box” moet leiden tot een drie keer snellere deployment van AI-infrastructuur, waardoor deze maanden duurt in plaats van jaren. Ook is het PUE (Power Usage Effectiveness)-getal naar 1,1 geduwd, aanzienlijk lager dan het industriële gemiddelde van 2,0 en ook ambitieuze streefwaarden zoals de Duitse eis om op of onder 1,2 te zitten tegen 1 juli 2026. Lager dan 1,0 kan niet, dus HPE zit bijzonder dichtbij de natuurlijke limiet.
AI-workloads draaien om data, waardoor storage-verbeteringen een grote impact hebben op de totale prestaties en kosten voor organisaties. Disaggregated storage, ofwel storage die is losgekoppeld van compute en onafhankelijk schaalt, staat centraal bij HPE Alletra Storage MP. HPE belooft geen enkele overprovisioning, een energiereductie van 45 procent en 40 procent lagere kosten door de adoptie van een “unified data services architecture”, zoals het de oplossing omschrijft. Het vormt een cruciaal component voor het bredere HPE Private Cloud AI, een mengelmoes van HPE- en Nvidia-oplossingen voor alle AI-wensen voor organisaties van welke schaal dan ook.
Cisco
Naast HPE heeft Cisco tijdens GTC 2025 grote AI-aankondigingen. De nadruk ligt hier op security met de zogeheten Cisco Secure AI Factory with NVIDIA. Een veilige AI-aanpak wordt hier niet alleen uitgelegd als één die bestand is tegen cyberaanvallen of downtime. Compliance en betrouwbaarheid zijn even relevant. Een veelvoud aan Cisco-oplossingen wisselen elkaar af door alle AI-lagen, van Cisco’s Hybrid Mesh Firewall (inclusief Hypershield) tot applicatiebeveiliging met Cisco AI Defense. Hoogwaardige storage van partners als NetApp, Hitachi Vantara, VAST Data en Pure Storage (waarover hierna meer) wordt gecombineerd met Nvidia’s AI Enterprise-suite voor een optimale out-of-the-box AI-platform.
De nadruk ligt duidelijk op eenvoud. Ethernet-networking via Nvidia’s Spectrum-X-kaarten maakt de implementatie in bestaande datacenters haalbaar, zodat de stap naar een AI-fabriek overbrugbaar wordt.
Pure Storage
Ook Pure Storage wil zoveel mogelijk integreren met Nvidia’s AI-stack. Pure Storage FlashBlade arrays zijn vanaf nu gecertificeerd voor het Nvidia AI Data Platform-referentieontwerp, waarmee deze Pure Storage-oplossing geschikt wordt voor Nvidia Cloud Partner- en enterprise-implementaties. We kunnen dus aannemen dat partijen als CoreWeave en de Amerikaanse hyperscalers op grote schaal gebruik zullen maken van Pure’s aanbod, waar dat nog niet het geval was.
De gevalideerde storage-opties bereiken hetzelfde doel als wat we al bij Cisco en HPE noemden: enerzijds eenvoud en anderzijds schaalbaarheid. Voor de allergrootste AI-workloads blijft er op deze manier een plug-and-play implementatie mogelijk, inclusief RAG en training op bedrijfseigen data.
“GPU’s zijn snel uitgegroeid tot de drijvende kracht achter de volgende golf van AI-innovatie”, benadrukt Pure-CTO Rob Lee. “De integratie van het NVIDIA AI Data Platform in FlashBlade biedt de AI-ready storage die nodig is voor optimale prestaties. Daarnaast bevestigen onze recente NVIDIA-certificeringen dat Pure Storage het tempo en de schaal ondersteunt die AI-modellen nog hebben om verandering te bewerkstellingen. Dankzij onze speciaal ontworpen storageoplossingen kunnen enterprises eenvoudig en efficiënt gebruikmaken van de kracht van AI om succesvol te zijn.”
HP
Om nog even terug te grijpen op de schaalbaarheid van Nvidia’s vernieuwde productenlijn: we moeten verder kijken dan alleen exascale datacenters. Ook workstations en edge-oplossingen zullen imposante AI-prestaties leveren, waaronder door HP. De meest conventionele varianten hiervan zijn de ZBook Fury G1i en Z2 Tower G1i, respectievelijk een laptop en desktop met RTX PRO Blackwell GPU’s. In de ZBook Fury G1i is een RTX PRO 5000 Blackwell GPU te vinden in combinatie met Intel Arrow Lake, terwijl de Z2 Tower G1i een RTX PRO 6000 Blackwell GPU bevat. Laatstgenoemde kent een VRAM-capaciteit van 96GB. Wel heeft deze videokaart een imposante 600 Watt nodig, waar 88 procent aan prestatieverbeteringen tegenover staan ten opzichte van de vorige generatie RTX PRO, Ada Lovelace.
VAST Data
Niet alleen hardware-leveranciers breiden de mogelijkheden met Nvidia uit. VAST Data maakt de eigen VAST InsightEngine beschikbaar voor Nvidia DGX- en Nvidia-gecertificeerde systemen. Met deze oplossing worden geautomatiseerde data-opname, grootschalige vector search, event-driven orkestratie en GPU-geoptimaliseerde inferencing gecombineerd. Daarbij belooft VAST Data security op enterprise-niveau te leveren, met, zoals we vaker tijdens GTC horen, eenvoud als belangrijkste doel.
“Ondernemingen hebben AI-oplossingen nodig die niet alleen krachtig zijn, maar ook eenvoudig te implementeren en te bedienen”, aldus John Mao, Vice President Strategic Alliances bij VAST Data. “Als onderdeel van het VAST Data Platform stroomlijnt VAST InsightEngine met NVIDIA de AI-adoptie van ondernemingen, door een real-time, AI-native dataplatform te leveren dat naadloos schaalt en tegelijkertijd zorgt voor enterprise-grade beveiliging en kostenefficiëntie.”
Lees ook: Nvidia verstevigt AI-koppositie bij GTC 2024 met Blackwell-GPU’s