De groei van kunstmatige intelligentie wordt steeds meer een kwestie van fysieke infrastructuur: stroomvoorziening en koelcapaciteit. Bedrijven die nu plannen maken voor grootschalig AI-gebruik, moeten daarom niet alleen naar software kijken, maar ook naar de energierekening en de beschikbaarheid van stroom.
Wat er aan de hand is
Cloud- en techbedrijven zoeken actief naar manieren om aan de enorme stroombehoefte van AI-rekenwerk te voldoen. Oracle heeft een overeenkomst gesloten met het nucleaire dienstenbedrijf Bloom Energy om te onderzoeken hoe zij hun datacenters van stroom kunnen voorzien met behulp van Bloom’s vaste-oxide brandstofceltechnologie. Deze deal is een voorbeeld van een bredere trend, waarbij leveranciers van AI-rekenkracht (AI compute vendors) moeite hebben om aan de stroomvraag te voldoen. Dit leidt tot een groeiende interesse in lokale, on-site energieopties naast het traditionele elektriciteitsnet. De kern van het probleem is dat de vraag naar rekenkracht voor grote AI-modellen exponentieel groeit, maar de capaciteit van het elektriciteitsnet en de beschikbaarheid van groene stroom deze groei niet altijd kan bijbenen.
Wat dit betekent
Dit betekent dat toegang tot AI-rekenkracht niet langer alleen een software- of budgetvraagstuk is, maar ook een fysiek en logistiek vraagstuk wordt. Voor ondernemers en groeiende bedrijven heeft dit directe gevolgen. Ten eerste kan het leiden tot hogere kosten, omdat cloudproviders hun stroomkosten zullen doorberekenen. Ten tweede kan het de beschikbaarheid en betrouwbaarheid van diensten beïnvloeden; als een datacenter geen stroom meer krijgt toegewezen, heeft dat gevolgen voor de diensten die daar draaien. Voor sectoren die afhankelijk zijn van constante AI-verwerking, zoals geavanceerde data-analyse, mediaproductie of real-time vertalingen, wordt de energievoorziening een kritieke factor in hun bedrijfscontinuïteit en schaalbaarheid. Het wordt een strategische overweging, vergelijkbaar met het kiezen van een locatie voor een fabriek vanwege de nabijheid van grondstoffen.
Hoe je dit kunt toepassen
De praktische toepassing hangt sterk af van jouw situatie en hoe kritiek AI is voor je huidige of geplande operaties. Het gaat erom bewustzijn te creëren en risico’s in kaart te brengen.
Als je een groeiend techbedrijf runt met plannen voor eigen AI-modellen… dan is energie-infrastructuur niet langer een IT-probleem, maar een boardroom-onderwerp. Overweeg bij het selecteren van een cloudprovider of het bouwen van een eigen serverruimte niet alleen de prijs per GPU-uur, maar vraag ook naar hun lange-termijn energie-strategie, de herkomst van hun stroom en hun plannen voor uitbreiding van capaciteit. Dit kan een factor worden in je vendor selection.
Als je als MKB’er afhankelijk bent van AI-tools van derden (zoals ChatGPT, Midjourney of automatiseringsplatforms)… realiseer je dan dat de stabiliteit en prijs van deze diensten mede bepaald worden door dit infrastructuurvraagstuk. Het is verstandig om niet al je processen op één AI-leverancier te laten leunen. Onderzoek alternatieven en bouw flexibiliteit in je processen in, zodat je kunt schakelen als een dienst onverwachts duurder wordt of minder betrouwbaar.
Als je investeert in of plant voor de lange termijn… neem dan de factor ’energie-intensiteit’ mee in je businesscase voor AI-projecten. Een eenvoudige chatbot heeft een andere footprint dan een model dat 24/7 duizenden documenten analyseert. Vraag je af of de verwachte waarde van het AI-project opweegt tegen de mogelijke stijging in operationele kosten door hogere energieprijzen. Dit helpt om realistische verwachtingen te stellen en toekomstbestendige keuzes te maken.
Bron: Aibusiness