Een staking bij een Amerikaanse nieuwsredactie over het gebruik van kunstmatige intelligentie is een duidelijk signaal: als je als werkgever of ondernemer met AI aan de slag gaat, moet je op tijd afspraken maken met je team. Het negeren van zorgen over banen, werkprocessen en transparantie kan leiden tot onrust en conflict, zelfs bij hoogopgeleide professionals.

Wat er aan de hand is

De ongeveer 150 leden van de ProPublica Guild, de vakbond van de gerenommeerde non-profit nieuwsorganisatie ProPublica, zijn voor 24 uur in staking gegaan. De staking is een onderdeel van de onderhandelingen over een nieuwe collectieve arbeidsovereenkomst. Volgens de vakbond, zoals gemeld door The Verge, zijn er nog steeds belangrijke kwesties onopgelost. Een van de belangrijkste twistpunten is het vastleggen van beschermingen rond het gebruik van kunstmatige intelligentie (AI) binnen de redactie. Andere punten zijn regels rond ontslag (“just cause”), bescherming bij reorganisaties en looneisen. De staking volgt op meer dan twee jaar van onderhandelingen.

Wat dit betekent

Deze situatie bij een vooruitstrevende nieuwsredactie is een waarschuwing voor veel meer sectoren dan alleen de media. Het toont aan dat de introductie van AI niet langer een puur technische of efficiëntie-discussie is, maar een arbeidsrelatie-issue wordt. Vooral in kennisintensieve sectoren zoals marketingbureaus, advieswerk, communicatie, software-ontwikkeling en contentcreatie – waar veel Nederlandse MKB’ers actief zijn – leven dezelfde vragen. Medewerkers willen duidelijkheid: vervangt AI straks onderdelen van mijn werk? Wie is er verantwoordelijk voor AI-gemaakte content? Mag mijn werk gebruikt worden om AI-modellen te trainen? Het niet bespreekbaar maken van deze vragen leidt tot onzekerheid, wat de productiviteit en het vertrouwen kan schaden en, zoals bij ProPublica, kan escaleren.

Hoe je dit kunt toepassen

Of je nu een klein team aanstuurt of zelf onderdeel bent van een grotere organisatie, je kunt proactief het gesprek over AI aangaan om onrust te voorkomen. Dit hoeft geen formele cao-onderhandeling te zijn; het begint met transparante communicatie.

Als je een marketing- of contentbureau runt… kun je het gesprek starten door het doel van AI-gebruik duidelijk te maken. Is het om routinematige taken (zoals eerste versies van social media posts of basis-zoekwoordonderzoek) te versnellen, zodat creatieve professionals meer tijd hebben voor strategie en hoogwaardige content? Maak dat expliciet. Bespreek welke tools je overweegt en vraag naar de ervaringen en zorgen van je team. Een concrete afspraak kan zijn: “AI-drafts worden altijd door een mens geredigeerd en goedgekeurd voordat ze live gaan.”

Als je een redactie, uitgeverij of communicatie-afdeling leidt… neem dan de zorgen van ProPublica serieus. Je zou kunnen overwegen om principes vast te leggen over het gebruik van AI-generatieve tools. Bijvoorbeeld: AI wordt niet gebruikt om volledige onderzoeksjournalistieke artikelen te schrijven; AI wordt wel ingezet voor het samenvatten van lange documenten of het genereren van ideeën voor headlines. Een andere cruciale afspraak gaat over intellectueel eigendom: wordt het werk van medewerkers gebruikt om interne AI-tools te trainen, en zo ja, onder welke voorwaarden?

Als je een ZZP’er of freelancer bent die samenwerkt met bedrijven… dan is dit jouw moment om je positie te bepalen. Je zou in nieuwe offertes of overeenkomsten een clausule kunnen opnemen over AI-gebruik. Bijvoorbeeld: “De door mij geleverde teksten/schema’s/ontwerpen mogen niet gebruikt worden voor het trainen van AI-modellen zonder mijn uitdrukkelijke toestemming.” Of: “Ik behoud het recht om mijn naam niet te verbinden aan content die significant door AI is gegenereerd of aangepast.” Dit maakt je voorwaarden helder vanaf het begin.

Als je binnen een groter bedrijf werkt en merkt dat AI oprukt… kun je het initiatief nemen om met collega’s en leidinggevende in gesprek te gaan. Een mogelijkheid is om een informeel overleg te vragen om gebruikscriteria te bespreken. Vraag naar het beleid: is er een? Zo niet, kun je voorstellen om samen een set richtlijnen op te stellen voor ethisch en transparant AI-gebruik binnen jullie afdeling. Focus op praktische zaken: wanneer moeten we vermelden dat AI is gebruikt? Welke taken willen we absoluut menselijk houden?

De kern is om niet te wachten tot er problemen ontstaan. Door vroegtijdig en open over intenties, grenzen en beschermingen te praten, bouw je vertrouwen op en kun je de kracht van AI benutten zonder het menselijk kapitaal uit het oog te verliezen.

Bron: The Verge