Microsoft, Apple, Alphabet… Sinds enige tijd heeft het relatief onbekende Amerikaanse bedrijf Nvidia zich bij deze giganten gevoegd in het rijtje met meest waardevolle bedrijven ter wereld. De maker van grafische chips was ooit vooral geliefd onder gamers, maar profiteert nu van de AI-revolutie.
Van CPU naar GPU
Gamen en videobewerking
GPU’s voor algemeen gebruik
Nieuwe opleving AI
Concurrentie en geopolitiek
Wie vijf jaar geleden een aandeel Nvidia kocht, heeft deze twintig keer zo veel waard zien worden. Vergeleken met een jaar geleden is de koers ruim verdrievoudigd. Eerder dit jaar bereikte de fabrikant als derde Amerikaanse bedrijf een beurswaarde van 2 biljoen dollar, iets wat daarvoor alleen Apple en Microsoft eerder was gelukt. Ongelofelijk indrukwekkende cijfers voor een bedrijf dat al decennia bestaat, in die dertig jaar niet altijd even succesvol was en lange tijd vooral gamers als klanten had.
Van CPU naar GPU
Nvidia werd in 1993 opgericht. Het was de tijd waarin games als Wolfenstein 3D, Doom en Unreal voor die tijd indrukwekkende grafische prestaties boden. Om die steeds ingewikkeldere grafische verwerking beter aan te kunnen voor toekomstige games, ontwikkelden de oprichters een speciaal soort chips, de GPU, of wel graphic processing unit.
Tot die tijd werd het grafische werk door de traditionele CPU (Central Processing Unit) gedaan, naast alle andere taken die deze processor ook moet uitvoeren. Nvidia was een van de eerste bedrijven met een speciale processor die het aansturen van beeld volledig op zich nam.
Gamen en videobewerking
Het duurde tot 1999 totdat het bedrijf hier echt een succes mee behaalde, met de GeForce 256. Dit was de eerste programmeerbare grafische kaart die bijzonder geavanceerde videoweergave mogelijk maakte. Zo kreeg Nvidia een flinke voorsprong op de concurrentie. Een jaar later werd de fabrikant de exclusieve leverancier voor grafische processors voor de eerste Xbox van Microsoft. Deze successen waren overigens ook wel nodig: vlak voor de eeuwwisseling moest het bedrijf de meeste medewerkers ontslaan omdat het succes tot dan toe was uitgebleven. In de consumentenmarkt is het bedrijf sindsdien actief met zijn GeForce-GPU’s, die niet alleen heel geschikt zijn voor gamen, maar ook voor andere zware grafische taken, bijvoorbeeld videobewerking, 3D-rendering.
GPU’s voor algemeen gebruik
Intussen kwam Nvidia tot de ontdekking dat GPU’s ook goed in te zetten waren voor algemene verwerkingstaken. Daartoe kwam het in 2006 met software genaamd CUDA waarmee het mogelijk was de grafische chips te programmeren voor andere doeleinden. Daarmee weden de GPU’s interessant voor supercomputers die in de wetenschap werden gebruikt.
Nieuwe opleving AI
Weer zes jaar later, in 2012, werd de link met AI voor het eerst gelegd. Het was bepaald niet de tijd dat AI in de belangstelling stond. De interesse was sinds de jaren 90 afgenomen omdat de verwachtingen niet werden waargemaakt. Maar Nvidia bleek de tijdgeest van het moment goed aan te voelen. Onderzoekers ontwikkelden een AI-model dat Nvidia-chips gebruikte voor relatief eenvoudige machine learning-toepassingen. Mede dankzij de indrukwekkende prestaties van de huidige GPU’s is AI weer in een stroomversnelling gekomen: voor AI-toepassingen is het nodig modellen te trainen en grote hoeveelheden data te verwerken, taken waar GPU’s krachtig genoeg voor zijn. Inmiddels kunnen we stellen dat AI zonder Nvidia niet was geweest wat het nu is. Ook bij andere technologieën waarbij veel rekenkracht nodig is, zoals VR en het minen van cryptomunten, spelen de GPU’s van het bedrijf een cruciale rol.
Waarom een GPU ideaal is voor machine learning
Daarvoor moeten we de GPU eens vergelijken met de CPU. Bij de CPU zijn de wachttijden tussen de verwerkingscycli zo kort mogelijk. Bij de GPU wordt zoveel mogelijk data in één keer verwerkt. Een GPU heeft daarom een veel grotere bandbreedte (750GB/s) dan de CPU (50GB/s). GPU’s zijn daarmee nog niet direct sneller dan CPU’s, want de latency/wachttijd is bij een GPU veel groter. Maar omdat de informatie in één grote stroom bij de GPU aankomt, is de wachttijd alleen bij de eerste cyclus langer. Daarna hoeft de GPU niet meer te wachten, want na verwerking kan direct het volgende worden verwerkt.
Dit werkt het beste met grote brokken informatie die bestaan uit vele kleine, maar vergelijkbare brokjes. En daarom gaat het bij machine learning, deep learning en high performance computing. Daarbij moeten kleinere stukken informatie supersnel worden verwerkt. Dat daarvoor uitgerekend GPU’s kunnen worden gebruikt is niet zo vreemd als je bedenkt dat deze ook razendsnel de beeldinformatie voor computermonitors moeten kunnen uitrekenen; inderdaad piepkleine brokjes pixel-informatie die samen een groter plaatje moeten opleveren.
Marcel Debets
Concurrentie en geopolitiek
De vroege focus op AI heeft Nvidia geen windeieren gelegd. Het bedrijf heeft zich ontwikkeld tot dé fabrikant van chips die cruciaal zijn voor AI-toepassingen. Collega-biljoenenbedrijven Google, Amazon, Meta en Tesla ontwerpen weliswaar inmiddels hun eigen grafische chips, maar die worden heel specifiek ontworpen voor bepaalde taken voor deze bedrijven. Ook bekende chipfabrikant AMD heeft een GPU op de markt gebracht.
Toch heeft Nvidia volgens analisten een flinke voorsprong en weet het door zijn status makkelijk programmeurs aan te trekken. Het bedrijf is ook superieur wat betreft de software, minstens zo belangrijk als de chips zelf. De grootste bedreiging is misschien wel de geopolitieke situatie. Eind vorig jaar voerden de Verenigde Staten nieuwe wetgeving in die de export van geavanceerde AI-chips naar China verbood. Slecht nieuws voor Nvidia, dat voor ongeveer een kwart van zijn omzet afhankelijk is van de verkoop aan China. Ondanks deze zorg lijken de gouden tijden voor Nvidia zeker nog niet voorbij.