Wikipedia verbiedt AI-gegenereerde inhoud op haar platform, maar verkoopt diezelfde inhoud wel aan grote techbedrijven voor het trainen van hun AI-modellen. Deze opmerkelijke spreidstand toont een fundamenteel dilemma: hoe ga je om met de waarde van menselijke kennis in een tijdperk van automatisering? Voor ondernemers die zelf content maken of gebruiken, is dit een signaal om bewust te kiezen tussen menselijke controle en AI-schaalbaarheid.

Wat er aan de hand is

De online encyclopedie Wikipedia heeft een formeel verbod ingesteld op het gebruik van grote taalmodellen (LLM’s) om inhoud te schrijven of te herschrijven voor haar platform. Dit besluit, genomen door de gemeenschap van ongeveer 250.000 vrijwillige redacteuren, volgde op maanden van intern debat. De nieuwe beleidsregel stelt dat het gebruik van AI “vaak de kernprincipes van Wikipedia schendt”. Er zijn twee uitzonderingen: AI mag worden gebruikt voor vertalingen en kleine tekstcorrecties, mits een mens deze controleert. De organisatie waarschuwt expliciet voor het risico dat AI-tools verder gaan dan gevraagd en de betekenis van een tekst zodanig veranderen dat deze niet langer wordt onderbouwd door bronnen.

Tegelijkertijd heeft de non-profit organisatie achter Wikipedia wel deals gesloten met grote techbedrijven zoals Microsoft, Meta en Amazon. Deze bedrijven mogen de Wikipedia-inhoud – meer dan 67 miljoen artikelen in ruim 360 talen – gebruiken als trainingsdata voor hun eigen AI-modellen. Wikipedia worstelt bovendien met een stortvloed aan geautomatiseerde ‘bots’ die de site leegschrapen voor data, wat de infrastructuurkosten opdrijft. Tussen begin 2024 en april 2025 steeg de bandbreedte voor multimediadownloads met 50 procent door dit soort activiteiten.

Wat dit betekent

Deze dubbele houding van Wikipedia – een verbod op AI-inhoud maar een verkoop van content voor AI-training – is een spiegel voor veel bedrijven. Het betekent dat de waarde van betrouwbare, menselijk geverifieerde informatie alleen maar toeneemt, terwijl de vraag naar ruwe data voor AI-training explosief groeit. Voor sectoren die afhankelijk zijn van autoriteit en vertrouwen, zoals onderwijs, journalistiek, consultancy en de juridische of medische wereld, versterkt dit het belang van een duidelijk, transparant beleid rond AI-gebruik. Het betekent ook dat bedrijven die hun eigen kennisbanken of content hebben, moeten nadenken over de commerciële en ethische implicaties van het beschikbaar stellen daarvan voor AI-training.

De praktische impact is direct merkbaar voor wie Wikipedia als bron gebruikt. De encyclopedie positioneert zichzelf expliciet als een bastion van menselijke verificatie, een kwaliteitskenmerk dat in een zee van AI-gegenereerde content steeds zeldzamer wordt. Voor ondernemers die zelf content publiceren, is de boodschap helder: ongereflecteerd gebruik van AI-tools voor het schrijven van autoritatieve teksten brengt grote risico’s met zich mee voor de geloofwaardigheid.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van jouw specifieke situatie en de rol die content en kennis spelen in je bedrijf. Het dilemma van Wikipedia – kwaliteit bewaken versus schaalbaarheid benutten – is herkenbaar voor veel ondernemers.

Als je een kennisintensief bedrijf runt, zoals een adviesbureau, een gespecialiseerde webshop of een opleidingsinstituut, zou je kunnen overwegen om een intern beleid op te stellen voor AI-gebruik. Net als Wikipedia kun je duidelijke grenzen stellen: voor welke taken is AI toegestaan (bijvoorbeeld het opstellen van een eerste concept of het vertalen van handleidingen) en voor welke absoluut niet (zoals het schrijven van autoritatieve adviezen aan klanten)? De kern is dat een mens altijd de eindverantwoordelijkheid houdt en de output controleert op feitelijke juistheid en consistentie met je bronnen.

Als je content gebruikt van externe bronnen voor je marketing, productinformatie of research, is dit een moment om je bronnen kritisch te evalueren. De waarschuwing van Wikipedia over AI die “verder kan gaan dan gevraagd” en bronnen niet correct weergeeft, geldt voor alle AI-tools. Een mogelijkheid is om belangrijke claims altijd te dubbelchecken tegen meerdere, betrouwbare bronnen, zeker wanneer je deze informatie gebruikt in communicatie naar klanten of in besluitvorming.

Als je zelf een database of kennisbank beheert, roept de situatie van Wikipedia de vraag op hoe je omgaat met de waarde van die data. Overweeg om na te denken over de principes die voor jouw organisatie belangrijk zijn. Wil je, zoals Wikipedia, de inhoud vrij beschikbaar houden maar wel controle uitoefenen over hoe deze wordt gebruikt? Of kies je voor een ander model? Dit zijn strategische keuzes die verder gaan dan alleen technologie.

De kern van de zaak is bewustwording. Het verbod van Wikipedia is geen afwijzing van technologie, maar een bescherming van een kernprincipe: betrouwbaarheid door menselijke verificatie. Voor jouw bedrijf gaat het erom te bepalen waar dat principe voor jou ligt en hoe je AI inzet zonder dat principe te ondermijnen.

Bron: Computable