Google LLC bereidt zich naar verluidt voor om samen te werken met het Taiwanese halfgeleiderbedrijf MediaTek aan de volgende versie van zijn Tensor Processing Units (TPU’s), de eigen AI-chips van het bedrijf.
Volgens The Information, dat zich baseert op een interne bron, zou MediaTek vanaf volgend jaar kunnen beginnen met de productie van de volgende generatie TPU’s. Momenteel gebruikt Google Broadcom voor de productie van zijn TPU-chips. Hoewel MediaTek mogelijk de volgende generatie chips produceert, beëindigde Google vooralsnog zijn samenwerking met Broadcom niet.
Grootschalige berekeningen
Google’s TPU’s zijn op maat gemaakte Application-Specific Integrated Circuits (ASIC’s). Ze versnellen machine learning-taken, met name die met neurale netwerken. De chips zijn geoptimaliseerd voor Google’s TensorFlow-framework. Ze verbeteren zowel het trainen als het uitvoeren van AI-modellen door efficiënt om te gaan met de rekenkracht die diepe neurale netwerken vereisen.
TPU’s verschillen van traditionele processors doordat men ze ontwerpt voor grootschalige, laagprecisie-berekeningen. Dankzij deze specialisatie realiseren TPU’s aanzienlijke prestatieverbeteringen en energiebesparingen in vergelijking met algemene CPU’s en GPU’s.
In cloudomgevingen worden TPU’s geïntegreerd in Google’s datacenters om schaalbare en efficiënte rekenkracht te bieden voor grootschalige machine learning-taken. Voor edge computing biedt Google de Edge TPU, een compacte en energiezuinige versie die AI-mogelijkheden naar apparaten zoals smartphones en IoT-toepassingen brengt.
Minder afhankelijk van Nvidia
Zoals Reuters opmerkt, geeft de mogelijkheid om in-house AI-chips te produceren Google ook een concurrentievoordeel in de AI-race. Dit omdat het zo minder afhankelijk wordt van Nvidia. Die fabrikant domineert momenteel de markt voor AI-chips.
De meest recente versie van Google TPU’s was de zesde generatie, de Trillium TPU. Die werd in oktober aangekondigd. Trillium biedt een viervoudige prestatieverbetering bij AI-training. Naast een drievoudige verbetering in uitvoering doorvoersnelheid in vergelijking met de vorige generatie chips.
Daarnaast beschikken Trillium TPU’s over meer geheugen en bandbreedte, waardoor ze grotere taalmodellen met meer parameters en grotere key-value caches kunnen verwerken. De chip ondersteunt een breder scala aan modelarchitecturen, zowel voor training als voor uitvoering.