De staking bij ProPublica onderstreept dat de invoering van AI in media niet alleen een technische kwestie is, maar vooral een menselijke. Voor Nederlandse mediabedrijven en uitgeverijen is de kernles dat transparantie en duidelijke afspraken over AI-gebruik essentieel zijn om vertrouwen en kwaliteit te waarborgen.
Wat er aan de hand is
Het personeel van het gerenommeerde, non-profit onderzoeksjournalistieke platform ProPublica is voor 24 uur in staking gegaan. De ongeveer 150 leden van de ProPublica Guild, die zich in 2023 hebben verenigd, zijn in onderhandeling over een collectieve arbeidsovereenkomst. Volgens het vakbondslid Katie Campbell, geciteerd in The Verge, zijn er al twee jaar pogingen om de kwesties “rustig op te lossen”. De staking markeert een escalatie. Belangrijke twistpunten zijn onder meer beschermingen rond het gebruik van kunstmatige intelligentie, bepalingen over “rechtvaardige reden” voor disciplinering of ontslag, ontslagbescherming en lonen. Deze actie bij een toonaangevende nieuwsorganisatie zet een belangrijke precedent voor hoe redactionele teams wereldwijd omgaan met de opkomst van AI.
Wat dit betekent
Deze situatie is een waarschuwing voor Nederlandse mediabedrijven, uitgeverijen en contentcreators. Het toont aan dat AI niet langer een abstracte technologie is die alleen door de tech-afdeling wordt omarmd, maar een concreet onderwerp van arbeidsvoorwaarden wordt. Voor redacties gaat het niet alleen om banen, maar om de kern van hun werk: kwaliteit, integriteit en autonomie. Zonder duidelijke kaders kan AI-gebruik leiden tot wantrouwen, conflicten en uiteindelijk schade aan het merk en de geloofwaardigheid. Voor kleinere Nederlandse uitgevers of niche-media kan een dergelijk conflict desastreus zijn voor de teamdynamiek en output. Het signaal is duidelijk: wie AI wil implementeren, moet dit doen in samenspraak met de mensen die de uiteindelijke content maken en de kwaliteitsnormen bewaken.
Hoe je dit kunt toepassen
De praktische toepassing hangt sterk af van jouw specifieke situatie binnen de media, uitgeverij of contentcreatie. De situatie bij ProPublica biedt geen kant-en-klare tool, maar wel een kader voor gesprek en beleid.
Als je een redactie of contentteam aanstuurt… Overweeg om het gesprek over AI niet te beginnen bij de mogelijkheden, maar bij de zorgen. Wat zijn de angsten van je teamleden rondom AI? Zijn die gericht op hun eigen positie, op de kwaliteit van het werk, of op de snelheid waarmee verandering wordt doorgevoerd? Een mogelijkheid is om samen een lijst met principes op te stellen voor AI-gebruik, bijvoorbeeld: AI wordt alleen ingezet als ondersteunend hulpmiddel, nooit om volledige artikelen te genereren zonder menselijke controle, en de eindredacteur blijft altijd verantwoordelijk.
Als je een uitgeverij of mediabedrijf runt… Je zou kunnen nadenken over het formaliseren van AI-gebruik in beleid of zelfs in arbeidsovereenkomsten. Dit gaat verder dan een interne memo. Welke taken mag AI wel en niet overnemen? Hoe waarborg je dat de journalistieke of redactionele standaarden niet worden uitgehold? Een concrete stap is het oprichten van een werkgroep met vertegenwoordigers uit management, redactie en eventueel een OR, om gezamenlijk een gedragscode te ontwikkelen. Dit creëert eigenaarschap en vermindert weerstand.
Als je een freelance journalist of contentmaker bent… Deze ontwikkeling onderstreept het belang van je unieke menselijke waarde. Je zou kunnen focussen op het ontwikkelen en benadrukken van de skills die AI (nog) niet kan repliceren: diepgravend onderzoek, het leggen van vertrouwensbanden met bronnen, complexe analyse en het herkennen van nuance. In je propositie naar opdrachtgevers kun je duidelijk maken dat jouw werk verder gaat dan het genereren van tekst; het gaat om context, verificatie en perspectief die een machine niet kan bieden. Dit positioneert je niet als tegenstander van technologie, maar als bewaker van kwaliteit.
Bron: The Verge