Een school die te lang wacht met ingrijpen bij AI-misbruik, zoals het maken van deepfake-naaktbeelden van leerlingen, kan zelf voor de rechter worden gedaagd. Dat blijkt uit een zaak in Pennsylvania, waar ouders van slachtoffers de school aanklagen omdat die zes maanden niets deed nadat ze op de hoogte waren gesteld. De schoolleiding was op dat moment niet wettelijk verplicht om te handelen, maar het uitblijven van actie wordt nu gezien als een cruciale fout die leidde tot meer slachtoffers. Voor Nederlandse onderwijsinstellingen en werkgevers is dit een waarschuwing: passiviteit kan leiden tot civiele rechtszaken, zelfs als er geen specifieke wet is overtreden.

De zaak draait om twee 16-jarige jongens die beelden van 48 vrouwelijke klasgenoten en 12 andere bekenden ’naakt maakten’ met AI-tools. In totaal creëerden ze minstens 347 AI-gegenereerde, geseksualiseerde afbeeldingen en video’s. De school kreeg een anonieme melding via een overheidslijn, maar ondernam maandenlang geen actie om ouders of politie in te lichten. Gedurende die periode bleven de jongens doorgaan en nam het aantal slachtoffers toe. De vertraging in het handelen is nu de kern van de mogelijke civiele procedure van de ouders. Het onderstreept dat de verwachtingen van ‘redelijk handelen’ en ‘zorgplicht’ vaak verder gaan dan de letterlijke wetgeving.

De strafrechtelijke vervolging van de jongens loopt parallel aan de civiele actie tegen de school. De tieners wachten op hun vonnis nadat ze schuld hebben bekend. Hun strafzaak lost echter niet de vraag op naar de verantwoordelijkheid van de instelling waar het misbruik plaatsvond. De ouders richten hun pijlen op het bestuur omdat die, door niets te doen, de schade liet escaleren. Dit onderscheid is belangrijk: AI-misbruik kan leiden tot twee soorten juridische gevolgen. Strafrechtelijk voor de pleger en civielrechtelijk voor partijen die hadden kunnen ingrijpen maar dat nalieten.

Hoe kun je dit vandaag toepassen?

Deze zaak gaat over scholen, maar de principes zijn breder toepasbaar voor elke ondernemer, bestuurder of professional die verantwoordelijkheid draagt voor een groep mensen, zoals werknemers of klanten.

Als je een schoolbestuurder of directeur bent is een mogelijke stap om het meldingsprotocol voor digitaal misbruik direct te herzien. Stel niet alleen vast wat wettelijk verplicht is, maar bedenk wat een redelijke reactietijd zou zijn bij een melding van AI-gemanipuleerde beelden. Je zou kunnen overwegen om een interne richtlijn op te stellen die specifiek ingaat op deepfakes en andere vormen van AI-misbruik, met duidelijke stappen voor het informeren van betrokkenen en autoriteiten.

Als je een bedrijf runt met meerdere werknemers dan kun je deze casus meenemen in een gesprek over gedragsregels en sociale veiligheid. Het gaat niet alleen om wat er in de arbeidsovereenkomst staat, maar om de zorgplicht die je hebt om een veilige omgeving te bieden. Een optie is om in de volgende teamupdate of nieuwsbrief kort te bespreken dat misbruik van AI-tools voor het maken van nare content niet wordt getolereerd en dat meldingen serieus en snel worden opgepakt.

Als je als ZZP’er of freelancer werkt met jongeren bijvoorbeeld als coach, trainer of docent, dan is bewustwording het belangrijkste. Je zou kunnen nadenken over hoe je een veilige sfeer creëert waarin leerlingen of deelnemers zich comfortabel voelen om ongepast gedrag, ook online, te melden. Het expliciet benoemen van dit soort risico’s kan al een preventieve werking hebben.

Als je ouder bent van schoolgaande kinderen kan deze zaak een aanleiding zijn om in gesprek te gaan met de school over hun beleid. Je zou op een ouderavond kunnen vragen of de school een protocol heeft voor het omgaan met meldingen van digitaal seksueel misbruik, zoals deepfakes, en binnen welke termijn ouders worden geïnformeerd. Het doel is niet om beschuldigend te zijn, maar om samenwerking te stimuleren.

Als je verantwoordelijk bent voor een sportvereniging of andere vereniging waar veel jongeren samenkomen, dan ligt hier een taak om bestuursleden bewust te maken van deze nieuwe risico’s. Een mogelijkheid is om het onderwerp ‘digitale veiligheid’ toe te voegen aan de agenda van een bestuursvergadering, waarbij deze Amerikaanse zaak als voorbeeld dient van wat er kan gebeuren bij passiviteit.

Bron: Arstechnica