Het invoeren van AI in een mediabedrijf vereist transparante afspraken met de redactie over kwaliteitsbewaking en baanzekerheid, om vertrouwen te behouden en conflicten te voorkomen. De staking bij ProPublica onderstreept dat medewerkers AI niet als bedreiging willen zien, maar als gereedschap waar duidelijke grenzen aan gesteld zijn.

Wat er aan de hand is

Het personeel van het gerenommeerde, non-profit onderzoeksjournalistieke platform ProPublica in de VS is voor 24 uur in staking gegaan. De ongeveer 150 leden van de ProPublica Guild, die zich in 2023 hebben verenigd, zijn in onderhandeling over een nieuwe collectieve arbeidsovereenkomst. Volgens de vakbond, zoals gerapporteerd door The Verge, zijn er nog steeds belangrijke geschilpunten. Een van de kernissues zijn beschermingen rond het gebruik van kunstmatige intelligentie. Andere punten zijn regels rond disciplinering en ontslag (“just cause”), bescherming bij ontslagrondes en lonen. De staking is een zeldzame en publieke escalatie in de mediawereld, die laat zien dat de introductie van AI niet louter een technische kwestie is, maar een arbeidsrelatie raakt.

Wat dit betekent

Voor mediabedrijven, uitgeverijen en content-creërende organisaties in Nederland betekent dit dat de implementatie van AI hoog op de agenda van de ondernemingsraad en vakbonden zal komen te staan. Het gaat niet meer alleen om de vraag of je AI gebruikt, maar hoe je dat doet. Medewerkers vrezen dat AI ingezet wordt om werk te automatiseren, wat kan leiden tot banenverlies of tot uitholling van kwaliteitsnormen. Voor een redactie die draait op vertrouwen en journalistieke integriteit, zoals bij onderzoeksplatforms, kranten of vakbladen, is dat een existentieel thema. Bedrijven die AI stilletjes doorvoeren zonder duidelijke kaders riskeren niet alleen conflict, maar ook reputatieschade bij hun publiek, dat waarde hecht aan menselijke controle en expertise.

Hoe je dit kunt toepassen

De praktische toepassing hangt af van jouw situatie. Het ProPublica-voorbeeld is een waarschuwing om AI-beleid niet als een puur technische of managementbeslissing te behandelen, maar als een onderwerp voor sociaal overleg.

Als je een uitgeverij of mediabedrijf runt… is transparantie het sleutelwoord. Begin niet met het implementeren van AI-tools voor taken zoals het schrijven van koppen of het samenvatten van artikelen zonder eerst met de redactie te bespreken wat de doelstelling is. Een mogelijkheid is om een gezamenlijke werkgroep op te zetten die experimenten begeleidt en kwaliteitscriteria opstelt. De kernvraag is: welke taken mag AI ondersteunen, en waar blijft de definitieve, geredigeerde menselijke controle non-negotiable?

Als je een hoofdredactie of teamleider bent… kun je het gesprek aangaan door AI niet als vervanging, maar als ondersteuning te framen. Je zou kunnen voorstellen om repetitieve, tijdrovende taken zoals het eerste onderzoek naar datasets, transcriptie van interviews of het controleren van feiten tegen eerdere publicaties te verkennen. Het doel is medewerkers te ontlasten van werk dat onder hun niveau ligt, zodat ze meer tijd hebben voor diepgaande analyse, creativiteit en contact met bronnen. Leg vast dat AI-gegenereerde tekst nooit zonder grondige factcheck en redactionele toets wordt gepubliceerd.

Als je in een creatieve of kennisintensieve sector werkt buiten de media… gelden vergelijkbare principes. Of je nu in marketing, advies of onderwijs werkt: onduidelijkheid over de rol van AI leidt tot onrust. Overweeg om protocollen op te stellen voor het gebruik van tools zoals ChatGPT of Claude. Bijvoorbeeld: AI mag worden gebruikt voor brainstormen, het opzetten van een eerste structuur of het checken van taal, maar het eindproduct moet altijd het intellectuele eigendom en de kritische blik van een menselijke professional dragen. Communiceer dit beleid helder naar het hele team.

Bron: The Verge