De Europese Unie zet concrete stappen om AI-systemen die expliciete deepfakes van echte personen kunnen maken, te verbieden. Dit voorstel komt nadat de chatbot Grok van Elon Musk in het nieuws kwam omdat gebruikers ermee seksueel getinte afbeeldingen van bekende personen en zelfs kinderen konden genereren. Het Europees Parlement stemde met een grote meerderheid voor een vereenvoudiging van de AI-wetgeving die een verbod op zogenaamde ’nudifier’-systemen moet mogelijk maken.

Deze ontwikkeling maakt duidelijk dat de bestaande AI-wet (de AI Act) volgens de Europese Commissie niet voldoende bescherming biedt tegen het genereren van dit soort schadelijk materiaal. Het parlement werkt nu aan amendementen om die gaten te dichten. Voor ondernemers en professionals die met generatieve AI werken, is dit een belangrijk signaal: de regelgeving rond AI wordt niet alleen strenger, maar ook specifieker en reageert op concrete misstanden in de markt.

Wat betekent dit voor het gebruik van AI in je bedrijf?

Het directe verbod richt zich op specifieke toepassingen die zijn ontworpen om naakte deepfakes te maken. De bredere implicatie is echter dat platformen en tools die generatieve AI aanbieden, een grotere verantwoordelijkheid krijgen om schadelijke output te voorkomen. Het incident met Grok toonde aan dat een platform kan worden gebruikt om schadelijk materiaal te maken, zelfs als dat niet de primaire bedoeling van de tool is. Dit plaatst de nadruk op due diligence: het is verstandig om te weten welke AI-tools je team gebruikt en wat de mogelijke risico’s en beperkingen van die systemen zijn.

De stemming in het Europees Parlement is een politiek signaal, maar het wijst op een trend van toenemende regulering en aansprakelijkheid. Het onderstreept het belang van een bewust AI-beleid binnen je organisatie, waarin niet alleen wordt gekeken naar productiviteitswinst, maar ook naar ethische grenzen en compliance-risico’s. De verwachting is dat aanbieders van AI-diensten hun systemen verder zullen moeten afschermen om aan toekomstige wetgeving te voldoen.

Hoe kun je dit vandaag toepassen?

Deze juridische ontwikkeling is een aanleiding om het gebruik van generatieve AI in je bedrijfsvoering tegen het licht te houden. Het gaat niet om paniek, maar om proactieve bewustwording.

Als je marketing- of contentteams gebruikt die met beeldgeneratie werken, is een mogelijke stap om interne richtlijnen op te stellen over wat voor soort afbeeldingen wel en niet gegenereerd mogen worden. Bespreek expliciet dat het genereren van afbeeldingen van bestaande, herkenbare personen in compromitterende situaties niet alleen ethisch onverantwoord is, maar ook steeds meer in een juridisch grijs gebied komt te liggen.

Als je een SaaS-dienst of platform runt waar gebruikers zelf content kunnen genereren, zou je kunnen overwegen om je gebruiksvoorwaarden en moderatiebeleid te herzien in het licht van deze ontwikkelingen. De discussie in de EU draait mede om de verantwoordelijkheid van het platform. Het is verstandig om na te gaan of je tools gebruikt die voldoende safeguards hebben tegen het genereren van schadelijk materiaal.

Als je als freelancer of consultant AI-tools adviseert aan klanten, is dit een relevant onderwerp om in je advies mee te nemen. Je kunt klanten wijzen op het belang van het kiezen van gerenommeerde AI-leveranciers die transparant zijn over hun veiligheidsmaatregelen en compliance met (toekomstige) regelgeving, in plaats van alleen te kijken naar functionaliteit en prijs.

Als je algemene bedrijfsrichtlijnen voor technologiegebruik hebt, is een optie om het gebruik van generatieve AI hierin op te nemen. Richtlijnen kunnen gaan over het gebruik van bedrijfsdata in prompts, het respecteren van copyright en persoonlijkheidsrechten, en het vermijden van het creëren van misleidende of schadelijke content. Dit helpt om een cultuur van verantwoord gebruik te bevorderen.

De kern is dat AI een krachtig hulpmiddel is, maar dat zijn gebruik gepaard gaat met verantwoordelijkheden. Door nu stil te staan bij deze ontwikkelingen, voorkom je dat je later voor verrassingen komt te staan en positioneer je je bedrijf als een verantwoordelijke partij in het digitale landschap.

Bron: Arstechnica