Nvidia kondigt opvolger Blackwell-chips aan, maar concurrentie verscherpt

Nvidia kondigt opvolger Blackwell-chips aan, maar concurrentie verscherpt

Nvidia kondigt de komst van Rubin aan. Het gaat om een nieuwe generatie AI-chips en dus een opvolger van de nog jonge Blackwell-GPU’s. Rubin zou Blackwell overtreffen op vlak van prestaties en energie-efficiëntie. Zou dit opnieuw een voltreffer zijn voor Nvidia of wordt dat moeilijker nu de concurrentie de messen slijpt?

Het nieuwe is er van de Blackwell-chips nog niet af. De aankondiging van maart zit nog vers in het geheugen en de productie is nog maar pas van start gegaan. Nividia blijft er echter niet lang bij stilstaan. De chipfabrikant gaat al door met de aankondiging van een nieuwe generatie. Naar die nieuwe generatie is het wel nog even aftellen, naar verwachting tot 2026.

Jensen Huang, CEO van Nvidia, presenteerde de roadmap met nieuwe Rubin-chips tijdens Computex op maandag. Huang deeld op vlak van specificaties alleen mee dat de GPU’s ondersteuning krijgen voor High Bandwidth Memory 4 (HBM 4). Dat is tot een maximum van acht HMB4-stapels. Deze geheugenstandaard wordt ook verwacht voor 2026. De Blackwell-chips die momenteel in productie zijn, ondersteunen acht HMB3e-stapels.

Lees ook: Nvidia verstevigt AI-koppositie bij GTC 2024 met Blackwell-GPU’s

Blackwell-refresh in 2025

Voordat het zover is, komt er nog een krachtigere versie van de Blackwell-GPU op de markt. Deze Blackwell Ultra-refresh zal twaalf HMB3e-stapels ondersteunen. Nvidia houdt dezelfde agenda aan voor Rubin. Die lijn krijgt in 2027 namelijk eveneens een opvolger, Rubin Ultra, die twaalf HBM4-stapels ondersteunt.

De Rubin-GPU’s zullen tot slot nog dienst moeten doen in de opvolger van de Grace Hopper-superchip. Dit wordt de Vera Rubin-superchip, waarin twee Rubin-gpu’s worden gecombineerd met een Vera-processor. De processor, Vera, wordt de opvolger van de Grace Arm-CPU’s.

Concurrentie slijpt de messen

Rubin en Vera zullen vanaf 2025 vast in menig datacenter ingezet worden. Nvidia domineert namelijk de markt van AI-hardware voor datacenters. Daar komt voorzichtig verandering in, nu een eerste samenwerking van Nvidia-concurrenten het heeft gemunt op de NVLink Interconnect-technologie. AMD, Broadcom, Cisco, Google, HPE, Intel, Meta en Microsoft willen later dit jaar een nieuwe industriestandaard uitwerken om de krachten van verschillende servers te bundelen. Dit lijkt een opmaat voor verdere pogingen om de Nvidia-wurggreep omtrent AI te beëindigen.

AMD opent tijdens Computex nog verder de aanval op Nvidia. Dat start met de aankondiging van de MI325X-processor. Het gaat om een accelerator die datacenters kunnen inzetten en combineren. De productie hiervan zal dit jaar nog starten. Deze GPU ondersteunt de geheugenstandaard HBM3e, net zoals de Blackwell-chips van Nvidia. De huidige generatie MI300X-GPU’s werkt nog met HBM3 en beschikt daardoor over 30 procent minder bandbreedte. Het geheugen van de MI325X-accelerator krijgt ook een flinke uitbreiding, naar 288 GB. Dit is cruciaal om grote AI-modellen zo snel en efficiënt mogelijk te voeden aan de GPU.

Lees ook: AMD introduceert Instinct MI300X en MI300A voor datacenters

Volgend jaar zegt Su de nieuwe chiplijn MI350 uit te brengen, die gebaseerd zal zijn op de CDNA 4-architectuur. Dat moet flinke prestatiewinsten opleveren. AMD spreekt van 35 keer (!) betere prestaties op vlak van AI-inference. Deze verwijzing naar de tijd die nodig is voor het genereren van een AI-respons, toont aan hoe AMD de AI-markt wil aanspreken. De roadmap die online wordt toegelicht door Brad McCredie, corporate vice-president, Data Center Accelerated Compute bij AMD, staat eveneens bol van AI: “Met onze bijgewerkte jaarlijkse cadans van producten zijn we meedogenloos in ons innovatietempo en bieden we de leiderschapscapaciteiten en -prestaties die de AI-industrie en onze klanten verwachten als drijvende kracht achter de volgende evolutie van datacenter-AI-training en -inference.”

Voor 2026 staat nog de MI400-serie op de planning. Die wordt gebouwd op een architectuur die de naam ‘Next’ draagt.

Snellere cadans

Voor zowel Nvidia als AMD wordt de cadans van AI-GPU releases opgevoerd van tweejaarlijks naar jaarlijks. Voor ontwikkelingen die zo snel gaan als AI, moet een tandje worden bijgestoken om niet achterop te raken. De bedrijven zijn gemotiveerd om dit te bewerkstelligen. Hoe dit praktisch zal uitdraaien, blijft echter de vraag. Zo is het bijvoorbeeld afwachten of de chipfabrikanten bij iedere release een voldoende grote prestatiesprong kunnen afleveren. Alleen op die manier blijft nieuwe hardware financieel gezien interessant genoeg voor de kopers.