Het Nederlandse AI-congres stelt dat ondernemers fundamentele vragen moeten stellen over wie de controle heeft over de infrastructuur waarop hun data en AI-modellen draaien. Dit is geen abstract technisch vraagstuk meer, maar een concreet bedrijfsrisico dat raakt aan intellectueel eigendom, operationele continuïteit en geopolitieke afhankelijkheid.

Wat er aan de hand is

Tijdens het AI Congres 2026 in Maarssen, georganiseerd door de AI Coalitie voor Nederland (AIC4NL), werd de snelle opmars van AI gekoppeld aan urgente vragen over soevereiniteit en controle. Bestuursvoorzitter Willem Jonker waarschuwde in zijn keynote dat de marktdominantie van grote techbedrijven en geopolitieke spanningen gevaarlijk dicht bij elkaar komen. Hij pleitte ervoor dat Nederland zijn weerbaarheid moet versterken en zich minder afhankelijk moet maken van Amerikaanse AI-modellen en infrastructuur. Als lichtpunt noemde hij het Nederlandse bedrijf Nebul, dat momenteel een Europese, soevereine AI-cloudinfrastructuur bouwt. Het congres, met het thema ‘Impact met AI, The Fair Tech Way’, trok meer dan duizend deelnemers. Daarnaast werd de dubbele kant van AI-ontwikkeling belicht: terwijl tools voor AI-coding de productiviteit verhogen, waarschuwde Jonker dat dezelfde technologie ook kan worden gebruikt om slimme ransomware te schrijven.

Wat dit betekent

Voor Nederlandse ondernemers betekent dit een verschuiving van AI als puur productiviteitsinstrument naar AI als strategisch risico- en afhankelijkheidsvraagstuk. De waarschuwingen gaan over twee lagen. Ten eerste de operationele laag: als je bedrijfsprocessen, klantdata en intellectueel eigendom draaien op infrastructuur van een enkele buitenlandse aanbieder, loop je risico’s op het gebied van toegang, kosten en compliance. Ten tweede de geopolitieke laag: conflicten, zoals het door spreker Mietta Groeneveld van de NAVO genoemde voorbeeld waarbij AI een transformerende rol speelt, kunnen leiden tot exportbeperkingen, sancties of het afsluiten van diensten die cruciaal zijn voor je bedrijfsvoering. Vooral voor MKB’ers in sectoren met gevoelige data (zoals zorg, juridisch, financiële dienstverlening of innovatieve maakindustrie) wordt controle over de tech-stack een onderdeel van due diligence.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van jouw specifieke situatie, maar het congres zet aan tot een heroverweging van je AI-afhankelijkheden. Dit zijn geen acties voor vandaag, maar wel vragen om deze week op de agenda te zetten.

Als je AI-tools gebruikt voor productontwikkeling of software (AI-coding)… Overweeg dan een audit van de tools die je team gebruikt, zoals GitHub Copilot of Claude. Vraag je af: waar worden de gegenereerde code-snippets en je prompts opgeslagen? Wie heeft er intellectueel eigendom op de output? Een concrete stap is het opstellen van interne richtlijnen voor het gebruik van deze tools, specifiek voor projecten met gevoelige bedrijfslogica of klantdata.

Als je bedrijfsprocessen steeds meer leunt op AI-diensten van grote cloudaanbieders… Begin met het in kaart brengen van je ‘AI-kritieke’ processen. Welke klantenservice-chatbot, data-analysepijplijn of voorspellend model is essentieel? Onderzoek vervolgens of er Europese alternatieven zijn voor deze diensten, niet per se om direct over te stappen, maar om een plan B te hebben. Dit vermindert je ‘vendor lock-in’.

Als je in een sector werkt met strenge privacyregels (AVG) of intellectueel eigendom… Maak het gesprek over data-soevereiniteit onderdeel van je gesprekken met IT-leveranciers of cloudproviders. Vraag niet alleen naar uptime en kosten, maar expliciet naar de fysieke locatie van de servers waar jouw data en AI-modellen draaien, en naar de juridische structuur van het moederbedrijf. Dit is geen wantrouwen, maar professioneel risicomanagement.

De kernboodschap van het congres is dat AI-adoptie niet alleen gaat over ‘wat kan het?’, maar steeds meer over ‘wie controleert het?’. Door hier nu over na te denken, vergroot je de weerbaarheid van je bedrijf.

Bron: Emerce