Wikipedia sluit de deur voor AI-gegenereerde artikelen om de menselijke controle en betrouwbaarheid te waarborgen, maar opent tegelijkertijd de kluis voor techreuzen die de inhoud willen gebruiken om hun eigen AI-modellen te trainen. Dit creëert een opmerkelijke spreidstand die de waarde van betrouwbare, door mensen geverifieerde informatie onderstreept, maar ook nieuwe vragen oproept over de toekomst van kennisverspreiding.
Wat er aan de hand is
De online-encyclopedie Wikipedia heeft een formeel verbod ingesteld op het gebruik van grote taalmodellen (LLM’s) om inhoud te schrijven of te herschrijven. Dit besluit, genomen door de gemeenschap van ongeveer 250.000 vrijwillige redacteuren, volgt op maanden van intern debat. De kern van het beleid is dat AI-gebruik “vaak de kernprincipes van Wikipedia schendt”. Er zijn twee uitzonderingen: AI mag worden gebruikt voor vertalingen en kleine tekstcorrecties, mits een mens deze controleert. Zelfs dan waarschuwt de organisatie voorzichtig te zijn, omdat LLM’s “verder kunnen gaan dan gevraagd en de betekenis van de tekst zodanig kunnen veranderen dat die niet langer wordt onderbouwd door de geciteerde bronnen”. Tegelijkertijd heeft de non-profit organisatie achter Wikipedia deals gesloten met bedrijven als Microsoft, Meta en Amazon, die de Wikipedia-inhoud mogen gebruiken om hun eigen AI-modellen te trainen. De organisatie worstelt ook met een enorme toestroom van geautomatiseerde bots die de site leegschrapen voor trainingsdata, wat de operationele kosten opdrijft. Tussen begin 2024 en april 2025 steeg de bandbreedte voor multimediadownloads met 50 procent, waarbij minstens 65 procent van dit resource-intensieve verkeer van bots afkomstig was.
Wat dit betekent
Dit verbod markeert een belangrijke verschuiving in hoe we naar digitale informatiebronnen kijken. Voor ondernemers en professionals betekent het dat Wikipedia zich positioneert als een bastion van door mensen gecontroleerde informatie in een tijdperk van AI-gegenereerde content. De betrouwbaarheid van de encyclopedie als startpunt voor onderzoek wordt hierdoor expliciet versterkt. De deals met techreuzen tonen echter een andere realiteit: dezelfde informatie die te kostbaar is om door AI te laten schrijven, is wel waardevol genoeg om AI te trainen. Dit creëert een nieuwe economie rond kennis, waarbij de infrastructuurkosten voor het hosten van betrouwbare data worden gedekt door licenties aan de grootste spelers in de AI-markt. Voor kleinere bedrijven of startups die hun eigen modellen willen trainen, blijft Wikipedia weliswaar een open bron, maar de schaalvergroting door bots van grote bedrijven dreigt de toegankelijkheid te verstoren, zoals blijkt uit de forse stijging van bandbreedtekosten.
Hoe je dit kunt toepassen
De praktische toepassing hangt sterk af van hoe jij informatie gebruikt in je dagelijkse werk. Het verbod zelf is een signaal over de waarde van menselijke verificatie.
Als je Wikipedia gebruikt voor snel onderzoek naar markten, concepten of historische context… dan bevestigt dit besluit dat je hier (voorlopig) kunt vertrouwen op door mensen gecontroleerde informatie. Het is verstandig om de bronvermeldingen onderaan de artikelen te blijven checken, zoals altijd. De waarschuwing over AI-vertalingen betekent dat je voor cruciale, juridische of technische vertalingen beter niet blind kunt varen op een automatisch vertaald Wikipedia-artikel, maar de brontekst moet raadplegen of een professionele vertaler moet inschakelen.
Als je content creëert voor je eigen website, blog of kennisbank… dan illustreert dit beleid het groeiende belang van een duidelijk ‘menselijk waarmerk’. Overweeg om transparant te zijn over hoe jouw content tot stand komt. Voor onderwerpen waar feitelijke nauwkeurigheid cruciaal is, zou je kunnen verwijzen naar Wikipedia als een van de door mensen geverifieerde bronnen, nu dit beleid die status expliciet versterkt.
Als je nadenkt over het trainen van een eigen AI-model op openbare data… dan laat deze situatie de dubbele realiteit zien. De inhoud is vrij beschikbaar, maar het schrapen ervan op schaal brengt kosten en ethische vragen met zich mee voor de bronhouder. Een mogelijkheid is om, voor je een dergelijk project start, na te denken over de impact op de bron en of er een meer collaboratieve of gecompenseerde manier is om aan trainingsdata te komen, zoals de grote techbedrijven nu doen.
Als je je zorgen maakt over de betrouwbaarheid van online informatie in het algemeen… dan is dit een goed moment om je eigen verificatieprocessen onder de loep te nemen. Je zou kunnen overwegen om voor kritieke bedrijfsinformatie altijd meerdere bronnen te raadplegen, waarbij je let op de transparantie van die bronnen over het gebruik van AI. Het Wikipedia-beleid kan dienen als een gespreksstarter binnen je team over jullie eigen normen voor contentkwaliteit.
Bron: Computable