De Europese AI Act, de omvangrijke wetgeving voor kunstmatige intelligentie, wordt later van kracht dan gepland. Het Europees Parlement heeft ingestemd met een vertraging van de belangrijkste compliance-deadlines. Tegelijkertijd bevestigt het parlement wel het voornemen om specifieke toepassingen, zoals apps die naaktfoto’s genereren (’nudify’-apps), te verbieden. Voor ondernemers die met AI werken, betekent dit vooral ademruimte om hun projecten en systemen zorgvuldig aan de regels aan te passen.

De kern van het nieuws is een uitstel van de verplichtingen. Voor ontwikkelaars van zogenoemde ‘hoog-risico’ AI-systemen – systemen die een serieus risico kunnen vormen voor gezondheid, veiligheid of fundamentele rechten – verschuift de deadline voor compliance naar december 2027. Voor bedrijven die AI ontwikkelen voor producten die al onder sectorspecifieke veiligheidsregels vallen, zoals speelgoed of medische hulpmiddelen, geldt een nog latere datum: augustus 2028. Dit uitstel geeft organisaties meer tijd om te voldoen aan de strenge eisen op het gebied van risicobeoordeling, menselijk toezicht en transparantie.

Een ander belangrijk onderdeel van de stemming is de bevestiging van een verbod op bepaalde AI-toepassingen. Het gaat hierbij om systemen die, zonder toestemming, realistische naaktbeelden van personen kunnen genereren of manipuleren. Dit verbod is onderdeel van een lijst van onaanvaardbare AI-praktijken die vanaf zes maanden na inwerkingtreding van de wet verboden zijn. Dit betekent dat de ontwikkeling en het op de markt brengen van zulke ’nudify’-apps in de EU illegaal wordt, ongeacht het uitstel voor andere onderdelen van de wet.

Hoe kun je dit vandaag toepassen?

De vertraging is geen vrijbrief om AI-regelgeving te negeren, maar wel een kans om een gefaseerde en doordachte aanpak te kiezen. De komende jaren zijn cruciaal om je voor te bereiden. Hier zijn enkele manieren waarop je deze tijd kunt benutten.

Als je een AI-toepassing ontwikkelt of gebruikt in gevoelige domeinen zoals werving, credit scoring of toegangscontrole. Je systeem valt waarschijnlijk onder de ‘hoog-risico’ categorie. Een mogelijke stap is om nu al een interne inventarisatie te starten: welke AI-systemen gebruik je, welke data voeden ze en welke beslissingen ondersteunen ze? Dit geeft een helder beeld van de omvang van je toekomstige compliance-taak.

Als je een softwarebedrijf runt dat AI-modules verkoopt aan andere bedrijven. De verantwoordelijkheden in de AI Act zijn ketenbreed. Je zou kunnen beginnen met het documenteren van de technische specificaties en beperkingen van je modellen. Dit is een eerste bouwsteen voor de uitgebreide technische documentatie die later van ‘providers’ wordt verwacht.

Als je overweegt AI in te zetten voor consumentgerichte applicaties. Het verbod op ’nudify’-apps is een duidelijk signaal van de grenzen die de EU stelt. Een bredere les is om kritisch te kijken naar elk AI-idee dat gaat over biometrische data, emotieherkenning of het manipuleren van menselijk gedrag. Deze gebieden staan onder extra scherp toezicht en kunnen beperkingen krijgen.

Als je als ondernemer bezorgd bent over de complexiteit en kosten van compliance. Het uitstel biedt ruimte om niet in paniek te raken, maar wel om te plannen. Een optie is om dit jaar een verkennend gesprek aan te vragen met een legal expert gespecialiseerd in tech-regelgeving. Zij kunnen je helpen inschatten welke impact de wet op jouw specifieke operatie heeft en een roadmap opstellen.

Als je AI gebruikt voor interne processen die niet onder de ‘hoog-risico’ definitie vallen. Je hebt meer speelruimte, maar transparantie wordt een algemene norm. Een eenvoudige actie is om na te denken over hoe je aan medewerkers uitlegt welke AI-tools worden gebruikt en met welk doel. Het opbouwen van een cultuur van verantwoordelijk AI-gebruik begint nu, niet pas in 2027.

Bron: The Verge