Nvidia-topman Jensen Huang verwacht dat zijn bedrijf tot en met 2027 voor ten minste één biljoen dollar aan nieuwe AI-chips zal verkopen. Deze voorspelling, gedaan tijdens een grote conferentie, is een verdubbeling van eerdere orderverwachtingen en geeft een duidelijk signaal af: de vraag naar rekenkracht voor kunstmatige intelligentie blijft de komende jaren exponentieel groeien. Voor ondernemers betekent dit dat toegang tot deze krachtige hardware waarschijnlijk schaars en kostbaar blijft, maar dat er ook nieuwe, efficiëntere vormen van AI-verwerking aankomen die praktischer kunnen zijn voor dagelijkse bedrijfstoepassingen.
De verschuiving van training naar dagelijks gebruik
Een belangrijke trend die Nvidia signaleert, is de verschuiving in de ‘AI-economie’. De focus gaat volgens het bedrijf steeds meer liggen op ‘inferentie’ in plaats van alleen training. Inferentie is het moment waarop een getraind AI-model nieuwe informatie verwerkt om iets te doen, zoals een klantvraag beantwoorden, een rapport samenvatten of een ontwerp aanpassen. Deze dagelijkse toepassingen vereisen andere soorten rekencapaciteit dan het initiale trainen van een model. Ze vragen om chips die goed zijn in het snel afhandelen van opeenvolgende taken. Deze verschuiving verklaart mede de enorme verwachte vraag, omdat bijna elk bedrijf dat AI adopteert uiteindelijk inferentie-capaciteit nodig zal hebben.
Nieuwe chips voor praktischere AI-toepassingen
Om in te spelen op deze behoefte aan snelle, praktische AI, introduceert Nvidia niet alleen krachtigere GPU’s (de Blackwell-chips), maar ook een nieuwe generatie CPU’s genaamd ‘Vera Rubin’. Volgens Huang waren traditionele CPU’s een ‘remmende factor’ geworden in moderne AI-systemen. De nieuwe Vera-chips zijn speciaal ontworpen voor workloads van zogenaamde ‘AI-agenten’ – geautomatiseerde systemen die zelfstandig taken kunnen uitvoeren. Dit wijst erop dat de hardware zich aanpast aan een toekomst waarin AI niet alleen data analyseert, maar ook actief handelt binnen processen, wat voor bedrijven nieuwe automatisering mogelijk maakt.
Van chipfabrikant naar volledige AI-infrastructuur
Een opvallende uitspraak van Huang is dat Nvidia zich niet langer ziet als vooral een GPU-fabrikant, maar als leverancier van een ‘full-stack’ AI-infrastructuur. Dit betekent dat het bedrijf complete systemen aanbiedt, van chips tot softwareplatforms, die samenwerken. Voor ondernemers impliceert dit dat AI-implementatie mogelijk minder gefragmenteerd wordt. In plaats van zelf verschillende hardware- en softwarecomponenten samen te voegen, zouden ze kunnen kiezen voor meer geïntegreerde oplossingen die door één leverancier worden ontworpen en ondersteund, wat de complexiteit kan verminderen.
Wat de enorme orderboek betekent voor beschikbaarheid
De voorspelde omzet van 1 biljoen dollar tot 2027, en de eerdere melding van orders ter waarde van vijfhonderd miljard dollar tot eind 2026, onderstrepen dat de productiecapaciteit van geavanceerde chips nog jarenlang achter zal lopen op de vraag. Dit heeft directe gevolgen voor bedrijven die clouddiensten afnemen of eigen hardware willen aanschaffen. Rekencapaciteit blijft een strategische en dure grondstof. Het benadrukt het belang van een doordachte AI-strategie waarin je nadenkt over welke toepassingen de investering werkelijk waard zijn en welke mogelijk efficiënter kunnen draaien op de nieuwe generatie chips die gericht zijn op inferentie.
Hoe kun je dit vandaag toepassen?
De praktische toepassing hangt af van jouw situatie. Via geprompt.nl/stel-je-vraag kun je een vraag stellen die we uitwerken tot een artikel op maat.
De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.
Bron: Computable