De staking bij ProPublica is een waarschuwing voor elke werkgever die AI wil gebruiken: implementeer je het zonder duidelijke afspraken en dialoog, dan riskeer je conflict en productieverlies. De kern van het conflict draait niet om technologie, maar om gebrek aan vertrouwen en onduidelijkheid over de impact op werk.
Wat er aan de hand is
Medewerkers van de non-profit nieuwsorganisatie ProPublica in de Verenigde Staten zijn voor 24 uur in staking gegaan. De ongeveer 150 leden van de ProPublica Guild, die zich in 2023 hebben verenigd, zijn in onderhandeling over een collectieve arbeidsovereenkomst. Volgens de vakbond staan verschillende kernpunten nog ter discussie, waaronder beschermingen rond het gebruik van kunstmatige intelligentie, regels rond disciplinering of ontslag (“just cause”), ontslagbeschermingen en lonen. Katie Campbell, een lid van de ProPublica Guild, stelt dat er al ruim twee jaar stil wordt gewerkt aan een oplossing. De staking is een escalatie van dit langlopende conflict, waarbij AI een van de belangrijkste twistpunten is geworden.
Wat dit betekent
Dit nieuws is een concrete case study voor Nederlandse werkgevers, van het MKB tot grotere organisaties. Het toont aan dat AI niet langer alleen een technologische of efficiëntievraagstuk is, maar een sociaal en arbeidsrechtelijk thema. Werknemers maken zich zorgen over hoe AI hun werk zal veranderen, of het taken zal overnemen en welke gevolgen dat heeft voor hun baanzekerheid en autonomie. Wanneer deze zorgen niet worden geadresseerd in een vroeg stadium, kan dit leiden tot wantrouwen, vertraging in implementatie en, zoals bij ProPublica, tot openlijke conflicten zoals stakingen. Het onderstreept het belang van proactieve communicatie en het betrekken van medewerkers bij veranderingen, in plaats van AI-beleid van bovenaf op te leggen.
Hoe je dit kunt toepassen
De praktische toepassing hangt af van jouw situatie. De situatie bij ProPublica biedt echter duidelijke aanknopingspunten om soortgelijke conflicten in jouw organisatie te voorkomen. De kern is het opbouwen van vertrouwen en het creëren van duidelijkheid voordat er daadwerkelijk wordt geïmplementeerd.
Als je een klein team aanstuurt en overweegt AI-tools in te zetten… begin dan niet met aankondigen welke tool je gaat gebruiken. Organiseer eerst een open gesprek over de uitdagingen waar het team tegenaan loopt. Vraag welke repetitieve, tijdrovende taken er zijn. Bespreek vervolgens of en hoe AI zou kunnen helpen om die taken te ondersteunen, niet te vervangen. Maak afspraken over experimenten: “Laten we de komende maand met z’n allen deze tool testen voor het maken van eerste concepten van sociale media-berichten, en daarna evalueren wat het ons oplevert en wat we ervan vinden.”
Als je in een middelgroot bedrijf werkt en een breder AI-beleid wilt formuleren… vorm dan een werkgroep met vertegenwoordigers uit verschillende afdelingen, niet alleen IT en management. Laat deze groep meedenken over principes. Stel bijvoorbeeld gezamenlijk een “charter” of een set richtlijnen op. Denk aan afspraken zoals: “AI wordt ingezet ter ondersteuning van menselijk oordeel, niet ter vervanging ervan”, of “Medewerkers krijgen training om met AI-tools te werken en hun rol te herdefiniëren”. Dit creëert draagvlak en eigenaarschap.
Als je als ondernemer of manager bezorgd bent over productiviteitsverlies door onduidelijkheid… wees dan transparant over de beweegredenen. Wil je concurreren, kosten beheersen of kwaliteit verbeteren? Leg dit uit. Stel vervolgens samen met je medewerkers duidelijke kaders en grenzen vast. Bijvoorbeeld: “We gebruiken AI voor het genereren van data-analyses, maar elke conclusie wordt altijd door een mens getoetst en ondertekend.” Of: “AI-gegenereerde teksten voor klantcommunicatie worden altijd aangepast met onze eigen tone-of-voice.” Dit vermindert onzekerheid en geeft medewerkers regie over het eindresultaat.
Bron: The Verge