Wikipedia’s verbod op AI-gegenereerde inhoud, terwijl het tegelijkertijd data verkoopt voor AI-training, illustreert een fundamentele spanning waar veel platforms mee worstelen: het beschermen van de eigen kwaliteit versus het monetariseren van data. Voor ondernemers is de les dat een helder intern AI-beleid steeds belangrijker wordt, zeker als je afhankelijk bent van externe platforms die hun eigen regels kunnen veranderen.
Wat er aan de hand is
De online-encyclopedie Wikipedia heeft formeel besloten dat kunstmatige intelligentie geen inhoud meer mag schrijven of herschrijven voor het platform. Dit besluit kwam na een intern debat onder de ongeveer 250.000 vrijwillige redacteuren, die stemden voor het verbod. De nieuwe beleidsregel stelt dat het gebruik van grote taalmodellen (LLM’s) “vaak de kernprincipes van Wikipedia schendt”. Er zijn twee uitzonderingen: AI mag worden ingezet voor vertalingen en kleine tekstcorrecties, mits een mens deze controleert. De organisatie waarschuwt echter voorzichtig te zijn, omdat LLM’s verder kunnen gaan dan gevraagd en de betekenis van tekst kunnen veranderen zonder onderbouwing door bronnen.
Tegelijkertijd sloot Wikipedia, een non-profitorganisatie, deals met grote techbedrijven zoals Microsoft, Meta en Amazon. Deze bedrijven mogen Wikipedia-inhoud gebruiken om hun eigen AI-modellen te trainen. Wikipedia worstelt bovendien met een stortvloed aan geautomatiseerde bots die de site leegschrapen voor trainingsdata. Dit leidde tot een toename van 50% in bandbreedte voor multimediadownloads tussen begin 2024 en april 2025, waarbij minstens 65% van het resource-intensieve verkeer van bots afkomstig was.
Wat dit betekent
Deze situatie toont een opmerkelijke spreidstand die relevant is voor elke ondernemer die content gebruikt of produceert. Enerzijds stelt een groot platform strenge kwaliteitseisen en verbiedt het AI-tools om die kwaliteit te waarborgen. Anderzijds monetariseert het dezelfde data door deze te verkopen aan partijen die er AI mee bouwen. Dit creëert een dubbele moraal: de output van AI wordt geweerd, maar de input (de data) is wel verkoopbaar.
Praktisch betekent dit dat de regels van de platforms waarop je vertrouwt voor informatie of klanten, kunnen veranderen. Wat vandaag geaccepteerd wordt, kan morgen verboden zijn. Het betekent ook dat je eigen data, zoals productbeschrijvingen of klantreviews, mogelijk wordt gebruikt om AI-systemen van anderen te trainen, zonder dat je daar direct invloed op hebt. De stijgende kosten voor Wikipedia door bot-verkeer laten zien dat gratis toegang tot data voor platforms niet gratis is in onderhoud, wat kan leiden tot toekomstige beperkingen of kosten voor gebruikers.
Hoe je dit kunt toepassen
De praktische toepassing hangt sterk af van jouw specifieke situatie en hoe je AI en content inzet. Het kerninzicht is dat je niet blind kunt vertrouwen op de consistentie van externe platforms. Een mogelijkheid is om je eigen interne richtlijnen voor het gebruik van AI te formuleren, los van wat anderen doen.
Als je een webshop runt en productbeschrijvingen (deels) automatiseert… overweeg dan om een interne policy op te stellen over wanneer en hoe je AI gebruikt. Stel jezelf de vraag: wil je dat je unieke productteksten worden gebruikt om concurrenten hun AI te laten trainen? Dit kan een argument zijn om bepaalde content niet openbaar te crawlen toe te staan in je robots.txt-bestand, hoewel dit geen waterdichte garantie is.
Als je een kennisbank of helpcenter voor klanten beheert… kun je leren van Wikipedia’s uitzonderingen. AI-tools voor het vertalen van je documentatie of het corrigeren van kleine fouten kunnen waardevol zijn, maar alleen als een mens het eindresultaat controleert op juistheid en consistentie met je bronmateriaal. Zet nooit een LLM onbeheerd aan het werk op je officiële content.
Als je afhankelijk bent van informatie van platforms zoals Wikipedia voor je bedrijfsvoering… realiseer je dan dat hun toegankelijkheid en beleid kunnen veranderen. De stijgende kosten door bot-verkeer kunnen op termijn leiden tot beperkingen. Het is verstandig om kritische informatie niet alleen daar te laten staan, maar ook lokaal te archiveren of te diversifiëren naar andere betrouwbare bronnen.
Als je nadenkt over de ethiek en toekomstbestendigheid van je bedrijf… dan nodigt dit nieuws uit tot een gesprek. Wat is jouw positie? Verkoop je klantdata voor training, maar verbied je zelf het gebruik van bepaalde AI-tools? Wees transparant over je keuzes naar je klanten en medewerkers toe. Consistentie in je beleid bouwt vertrouwen op de lange termijn.
Bron: Computable