De Europese Unie zet concrete stappen om AI-systemen die expliciete deepfakes of naaktbeelden van echte personen genereren te verbieden. Dit voorstel, dat specifiek ’nudifier’-systemen wil aanpakken, volgt op zorgen over de risico’s van platforms die dergelijke schadelijke content niet kunnen blokkeren. Het voorstel moet nog formeel worden aangenomen, maar het geeft een duidelijke richting aan voor de toekomstige regulering van AI-toepassingen.

Wat houdt het voorstel precies in?

Het voorstel komt van de interne markt- en burgerrechtencommissies van het Europees Parlement. Zij stemden met een grote meerderheid (101 voor, 9 tegen, 8 onthoudingen) om het bestaande AI-verdrag te vereenvoudigen en een verbod voor te stellen op AI-’nudifier’-systemen. De aanleiding was een conclusie van de Europese Commissie eerder dit jaar dat het huidige AI-verdrag niet expliciet systemen verbiedt die materiaal genereren dat lijkt op seksueel kindermisbruik of expliciete deepfake-naaktfoto’s. Het nieuwe voorstel moet die leemte opvullen.

Waarom is dit relevant voor ondernemers?

Deze ontwikkeling is niet alleen relevant voor makers van specifieke ’nudify’-apps. Het signaleert een bredere trend van strenger toezicht op de uitkomsten en mogelijke misbruikscenario’s van generatieve AI. Voor elk bedrijf dat AI-modellen gebruikt of ontwikkelt die met beeld of tekst kunnen werken, wordt het steeds belangrijker om na te denken over beveiliging, contentmoderatie en ethische richtlijnen. De wetgeving richt zich op het verbieden van specifieke schadelijke toepassingen, maar de verantwoordelijkheid voor het voorkomen van misbruik ligt ook bij de aanbieders van de onderliggende technologie.

Hoe kun je dit vandaag toepassen?

De praktische toepassing hangt af van jouw situatie. Het is verstandig om de ontwikkelingen rond de EU AI-wetgeving te volgen, vooral als je werkt met generatieve AI-tools. Je zou kunnen overwegen om interne richtlijnen op te stellen over het ethisch gebruik van AI, met specifieke aandacht voor het genereren van beeldmateriaal. Een mogelijkheid is om in gesprek te gaan met leveranciers van AI-tools over hun beleid en technische maatregelen om misbruik tegen te gaan. Als je zelf AI-toepassingen ontwikkelt, is het raadzaam om safeguard-mechanismen en contentfilters te integreren om te voldoen aan toekomstige wettelijke normen.

Dit artikel is geschreven door de redactie van geprompt.nl.

Bron: Arstechnica