Cisco bouwt verder aan AI-infrastructuur met AI POD en nieuwe UCS-server

Hernieuwde focus op compute biedt nieuwe mogelijkheden

Cisco bouwt verder aan AI-infrastructuur met AI POD en nieuwe UCS-server

Het zogeheten AI-ready datacenter is een van de focusgebieden voor Cisco op het moment. Dat betekent dat UCS, het compute-platform van Cisco, belangrijker wordt voor het bedrijf. Het komt daarnaast ook met een plug-and-play AI-aanbod in de vorm van AI POD’s, kant-en-klare infrastructuur voor AI.

Als we kijken naar de infrastructuur voor AI, is compute zonder enige twijfel de belangrijkste component, gevolgd door het netwerk. Storage volgt daar weer op vrij grote afstand op, zeker voor algemene doeleinden. Het netwerkonderdeel heeft Cisco van oudsher behoorlijk goed op orde, maar op het gebied van compute was dit de laatste jaren niet altijd het geval. Dat verandert vandaag met de aankondiging (tijdens de jaarlijkse Partner Summit) van de nieuwe UCS C885A M8-servers en AI PODs.

Cisco UCS C885A M8 en AI POD’s

De UCS C885A M8-servers zijn bedoeld voor grote AI-training en -inferencing workloads. Ze maken gebruik van het Nvidia HGX-platform (H100- en H200-GPU’s). In iedere server zitten verder ook Nvidia (Super-)NIC’s en BlueField-3-DPU’s om voor de broodnodige versnelling te zorgen voor de GPU’s.

Waar de UCS C885A M8 een nieuwe server is, pakt Cisco nog iets verder door met de nieuwe AI POD’s. Dit zijn volledige AI-infrastructuur stacks (appliances) die het bouwt voor specifieke use-cases en industrieën. Klanten kunnen hiermee compute, netwerk en storage voor AI in een volledige stack afnemen. De AI POD’s zijn gebouwd volgens de principes van de Cisco Validated Designs, wat inhoudt dat Cisco achter de prestaties van de nieuwe AI POD’s staat. Ze moeten een startpunt zijn voor klanten om met AI aan de slag te kunnen, wat de specifieke AI-wens ook is. De AI POD’s maken gebruik van de Nvidia AI Enterprise-software.

Hernieuwde focus op UCS/compute

Op zich zijn de aankondigingen die Cisco vandaag doet niet per se nieuw voor de markt in het algemeen. Dat wil zeggen, er zijn al de nodige andere oplossingen op het gebied van compute voor AI en ook volledige stacks voor AI zijn niet nieuw.

Voor Cisco is dit echter wel een belangrijk moment. Het is de afgelopen jaren hard aan het werk gegaan om het compute-stuk een boost te geven. Dat was een beetje achtergebleven, was in ieder geval onze indruk. Dat is Jeremy Foster, de SVP en GM van Cisco Compute die we spreken tijdens de Cisco Partner Summit deze week in Los Angeles ook wel met ons eens. “Compute deed het goed en we hadden veel aandacht voor andere zaken, dus we gingen op het gebied van UCS van de ene generatie naar de andere”, vat hij het samen.

Enkele jaren terug realiseerde Cisco zich echter dat er iets moest gebeuren en ging het investeren in deze tak. Daar zijn de aankondigingen van vandaag een resultaat van. Zo kwam het ook uit met een nieuwe op AMD gebaseerde server en heeft het veel tijd en moeite gestopt in het doorontwikkelen van Intersight. Dat is nu echt de voornaamste manier om compute te beheren voor klanten van Cisco, geeft hij aan.

Als het gaat om AI POD’s ligt de nadruk vanzelfsprekend sterk op Nvidia, met name als het gaat om de software die Cisco erbij levert. Dit betekent echter niet dat klanten geen AI POD’s kunnen inzetten op basis van AMD, verzekert Foster ons. Cisco heeft daar alleen vooralsnog geen Validated Designs voor. Foster geeft aan dat die er zeker wel gaan komen zodra daar voldoende vraag naar is en/of het aanbod verder volwassen wordt.

Cisco heeft al bewezen dat het complete stacks kan leveren

Voor Cisco lijkt het aanbieden van volledige AI-stacks op het eerste gezicht wellicht wat buiten de comfortzone te liggen. Dat is echter niet het geval, horen we desgevraagd van Foster. Sterker nog, Cisco heeft al behoorlijk wat ervaring met het ontwikkelen van volledige stacks. Foster wijst hierbij op producten zoals FlexPod en FlashStack, die het samen met respectievelijk NetApp en Pure Storage in de markt heeft gezet. Het ontwikkelen van een AI-stack zoals de AI POD’s die het vandaag aankondigt is eigenlijk niet veel anders, aldus Foster. Het Nvidia-gedeelte van de AI POD’s is uiteraard wel nieuw, maar verder kon Cisco veel van wat het heeft geleerd bij de ontwikkeling van de eerdere stacks overzetten.

Onderaan de streep betekent de introductie van de nieuwe AI-producten vandaag dat Cisco beter kan meespelen in de markt voor AI-infrastructuur. “Voor partners boden we tot nu toe niet de mogelijkheden om met ons mee te spelen in deze markt, omdat we het niet in ons portfolio hadden. Dat is nu wel het geval”, geeft Foster aan. Cisco kan partners nu ook veel ondersteuning bieden, zodat ze het ook beter kunnen verkopen aan partijen in de markt. Zeker nu er steeds meer behoefte lijkt te komen aan wat meer gespecialiseerde oplossingen, soms ook per industrie, zouden deze nieuwe producten en stacks voor de AI-infrastructuur van organisaties weleens goed kunnen uitpakken voor Cisco.

Met de nieuwe AI POD’s voegt Cisco een nieuw soort AI-stack toe aan het portfolio. Deze nieuwe ‘appliance-achtige’ stacks komen naast de Cisco Nexus HyperFabric AI Clusters te staan.