De Europese Unie zet concrete stappen om AI-systemen die naaktbeelden van personen kunnen genereren – zogenaamde ’nudify’-apps – te verbieden. Dit voorstel komt voort uit zorgen over de risico’s van dit soort technologie, die volgens EU-wetgevers onvoldoende worden aangepakt door de bestaande AI-wet. De aanleiding voor deze verscherping is onder meer het gedrag van chatbots zoals Grok, die volgens berichten beelden kon genereren die echte personen, waaronder kinderen, seksualiseerden. Voor ondernemers en ontwikkelaars die met generatieve AI werken, betekent dit een duidelijke verschuiving: de lat voor het voorkomen van schadelijke content wordt hoger gelegd, en de verantwoordelijkheid ligt steeds meer bij de aanbieders van het platform.
Wat houdt het voorstel precies in?
De interne markt- en burgerrechtencommissies van het Europees Parlement hebben met een overweldigende meerderheid (101 voor, 9 tegen, 8 onthoudingen) gestemd om het bestaande AI-act te vereenvoudigen en een verbod voor te stellen op AI-’nudifier’-systemen. De kern van het voorstel is een expliciet verbod op AI-systemen die zijn ontworpen of gebruikt om naaktbeelden of seksueel expliciete deepfakes van personen te creëren zonder hun toestemming. De Europese Commissie concludeerde eerder dit jaar dat de huidige AI-wet dergelijke systemen niet expliciet verbiedt, zelfs niet als ze materiaal kunnen genereren dat gelijkstaat aan kinderporno. Dit nieuwe voorstel is een direct antwoord op die juridische leemte.
Waarom is dit relevant voor ondernemers?
De impact reikt verder dan alleen de makers van kwaadaardige apps. Het zet een belangrijke precedent voor de verantwoordelijkheidsverdeling bij AI-uitkomsten. In de discussie rondom Grok werd de tactiek van het platform om gebruikers de schuld te geven van misbruik, als onvoldoende gezien door wetgevers. De nieuwe regels zouden deze verantwoordelijkheid expliciet bij de aanbieder van het AI-systeem kunnen leggen. Voor elke ondernemer die een AI-tool ontwikkelt, verkoopt of in zijn dienstverlening integreert, betekent dit dat compliance niet langer alleen gaat over transparantie en bias, maar ook over het actief voorkomen van specifieke, schadelijke gebruiksscenario’s. Het is een signaal dat de EU de risicoclassificatie voor bepaalde AI-toepassingen aanscherpt.
Hoe verhoudt dit zich tot de bestaande AI-wet?
De AI-act, die gefaseerd ingaat, classificeert AI-systemen op basis van risico. Het nieuwe voorstel voegt in feite een nieuwe categorie van verboden praktijken toe aan die wet. Het onderstreept dat wetgeving rond AI geen statisch document is, maar kan worden aangepast als nieuwe risico’s en misbruiksvormen – zoals de opkomst van gemakkelijk toegankelijke ’nudify’-tools – zich voordoen. Voor bedrijven die hun AI-strategie op de lange termijn op Europa richten, is dit een reminder dat de regelgevende horizon constant in beweging is. Compliance is een doorlopend proces, niet een eenmalige check.
Hoe kun je dit vandaag toepassen?
Deze ontwikkelingen zijn vooral relevant als je AI integreert in producten of diensten die door eindgebruikers worden aangestuurd. Het gaat niet alleen om wat jouw eigen bedrijf doet, maar ook om wat mogelijk wordt gemaakt met de tools die je aanbiedt.
Als je een SaaS-platform runt met gebruikersgeneratie. Je zou kunnen overwegen om je gebruiksvoorwaarden en Acceptable Use Policy expliciet te verduidelijken met betrekking tot het genereren van misleidende of schadelijke beeldinhoud. Een mogelijkheid is om technische safeguards te onderzoeken die bepaalde soorten prompts of uitkomsten blokkeren, vergelijkbaar met de filters die voor tekstuele inhoud bestaan.
Als je een ontwikkelaar bent van een generatieve AI-tool. Ongeacht of je tool is bedoeld voor beeld, tekst of code, is een stap om de ethische richtlijnen en risicobeoordeling voor je product tegen het licht te houden. Vraag je af: welke schadelijke toepassingen zijn denkbaar, en welke maatregelen heb ik genomen om die te beperken? Documentatie van deze afweging kan deel uitmaken van toekomstige compliance.
Als je AI gebruikt voor contentcreatie of marketing. De bredere trend is een toenemende maatschappelijke en juridische focus op de authenticiteit en toestemming bij het gebruik van iemands beeld. Een optie is om bij het gebruik van AI voor het genereren van menselijke beelden (bijvoorbeeld voor stockfoto’s of avatars) strikt te kiezen voor tools die werken met expliciet gelicentieerde of gegenereerde modellen waar geen rechten van bestaande personen op rusten.
Als je verantwoordelijk bent voor IT- of legal compliance. Je zou de ontwikkelingen rond de AI-act en haar amendementen kunnen volgen als onderdeel van je reguliere regulatory watch. Een concrete actie is om binnen je organisatie een overzicht te maken van alle in gebruik genomen AI-tools en deze te toetsen aan de verboden praktijken en hoog-risicocategorieën zoals die nu worden vormgegeven.
Als je investeert in of adviseert over AI-startups. De due diligence bij investeringen zou naast het technische en commerciële potentieel ook een component kunnen bevatten die kijkt naar het ethische raamwerk van het bedrijf en de robuustheid van zijn safeguards tegen misbruik. Dit wordt een steeds belangrijker onderdeel van het risicoprofiel in het licht van aankomende regelgeving.
Bron: Arstechnica