AI-gebruik afdwingen via regels en verplichtingen is vaak contraproductief. De meest effectieve aanpak is een combinatie van bottom-up experimenteerruimte geven en top-down duidelijke kaders stellen, waarbij vertrouwen in medewerkers centraal staat.

Wat er aan de hand is

De discussie over hoe organisaties AI moeten implementeren laait op. Moet het gebruik worden afgedwongen of juist worden gestimuleerd? Volgens een column op Sprout, gebaseerd op gesprekken met bestuurders, is er brede overeenstemming dat een puur top-down benadering vaak niet werkt. De kloof tussen de boardroom en de werkvloer is groot; bestuurders weten vaak niet waar tijd bespaard kan worden of waar frustraties zitten die met automatisering kunnen worden opgelost. Uit de column blijkt dat slechts één op de zes Nederlandse werknemers wordt gevraagd welke werkzaamheden met AI geautomatiseerd kunnen worden. Onder universitair opgeleide professionals is dat minder dan 25 procent. Toch zien kenners ook een trend: het verplichten van AI-gebruik, bijvoorbeeld door het te koppelen aan promoties zoals bij Accenture, wordt vaker genoemd als een mogelijke aanpak.

Wat dit betekent

Dit betekent dat leiderschap rond AI niet draait om controle, maar om het faciliteren van een leerproces. Voor leiders is de komst van AI een kans om zich meer te verdiepen in wat er op de werkvloer speelt, in plaats van oplossingen van bovenaf op te leggen. Het betekent ook dat het risico van een ‘verplichtingscultuur’ reëel is: als medewerkers AI alleen gebruiken omdat het moet, verdwijnt de intrinsieke motivatie om echt waardevolle toepassingen te ontdekken. Voor senior medewerkers, die volgens de column minder vaak AI gebruiken, kan een puur afdwingende aanpak zelfs weerstand oproepen. De kern is dat effectieve AI-implementatie een balans vraagt: ruimte voor experimenteren combineren met duidelijke, niet-onderhandelbare kaders op het gebied van bijvoorbeeld veiligheid en kwaliteit.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van jouw organisatie en rol. De inzichten uit de column wijzen op een hybride aanpak die je kunt overwegen.

Als je een team of afdeling aanstuurt… begin niet met regels, maar met een vraag. Organiseer een sessie waarin je vraagt: “Waar zit jouw grootste tijdverspilling of frustratie in het werk?” Dit creëert een bottom-up inventarisatie van kansen zonder dat je oplossingen dicteert. Geef vervolgens een klein budget of tijd om met een AI-tool te experimenteren om één van die frustraties aan te pakken.

Als je verantwoordelijk bent voor digitale veiligheid of compliance… kun je het voorbeeld van Bas van der Veldt van Afas volgen: wees hard op de inhoud, zacht op de mens. Stel niet-onderhandelbare kaders, zoals “alle AI-interacties met klantdata moeten via ons goedgekeurde platform lopen” of “prompts mogen geen persoonsgegevens bevatten”. Dit zijn duidelijke, top-down grenzen die veilig experimenteren binnen die kaders mogelijk maken.

Als je merkt dat ervaren collega’s terughoudend zijn… koppel AI dan niet aan prestatiedruk, maar aan expertise. Vraag een senior medewerker om een nieuwe AI-tool voor zijn vakgebied te reviewen en te beoordelen op kwaliteit. Dit erkent hun autoriteit en betrekt hen op een natuurlijke manier, in plaats van het gebruik af te dwingen.

Als je een cultuur van experimenteren wilt stimuleren… maak fouten maken bespreekbaar. Kondig aan dat de komende drie maanden een ’experimenteerfase’ zijn, waarin het doel is om te leren, niet om direct perfecte resultaten te behalen. Vier kleine successen en bespreek mislukte experimenten openlijk als leermomenten, niet als falen.

Bron: Sprout