Wikipedia kiest voor een opvallende dubbele standaard: AI mag geen inhoud meer schrijven voor de encyclopedie, maar de organisatie verkoopt wel de eigen, door mensen gemaakte content aan grote techbedrijven om hun AI-modellen te trainen. Dit beleid zet een streep onder de discussie over de betrouwbaarheid van AI-generatie en plaatst iedereen met waardevolle online content voor een strategische vraag.
Wat er aan de hand is
De vrijwillige redacteuren van Wikipedia, een kwart miljoen mensen, hebben gestemd voor een verbod op het gebruik van grote taalmodellen (LLM’s) om inhoud te schrijven of te herschrijven voor het platform. De nieuwe beleidsregel stelt dat het gebruik van AI “vaak de kernprincipes van Wikipedia schendt”. Alleen voor vertalingen en kleine tekstcorrecties mag AI worden ingezet, mits een mens de aanpassingen controleert. Wikipedia is bang voor “misleidende of ‘verzonnen’ resultaten” door AI, een situatie die oprichter Jimmy Wales eerder een “puinhoop” noemde.
Tegelijkertijd sloot de non-profit organisatie deals met bedrijven als Microsoft, Meta en Amazon, die de Wikipedia-inhoud mogen gebruiken om hun eigen AI-modellen te trainen. Wikipedia worstelt bovendien met een stortvloed aan geautomatiseerde bots die de site “leegschrapen” voor trainingsdata. Dit verstoort de toegang en drijft de kosten op: de bandbreedte voor multimediadownloads steeg met 50 procent tussen begin 2024 en april 2025, waarbij minstens 65 procent van dit intensieve verkeer van bots afkomstig was.
Wat dit betekent
Dit betekent dat een van ’s werelds grootste kennisbronnen een fundamenteel onderscheid maakt tussen het consumeren en het produceren van AI. Voor bedrijven en professionals die content maken, is dit een belangrijk signaal. Het toont aan dat zelfs een platform dat draait op crowdsourcing en openheid, de kwaliteit en betrouwbaarheid van door mensen geverifieerde content zo hoog waardeert dat het AI-generatie actief uitsluit. Tegelijkertijd erkent het de financiële waarde van diezelfde menselijke content als brandstof voor de AI-industrie.
De praktische impact is drieledig. Ten eerste bevestigt het de risico’s van AI-hallucinaties voor betrouwbare informatievoorziening. Ten tweede illustreert het de schaal van datahonger van AI-bedrijven, die zelfs gratis content kostbaar maken door de infrastructuurlast. Ten derde creëert het een precedent: jouw waardevolle, door mensen gemaakte content kan een handelswaar zijn voor anderen, terwijl je zelf de poort gesloten houdt voor AI-gegenereerde concurrentie.
Hoe je dit kunt toepassen
De situatie bij Wikipedia is een spiegel voor elke ondernemer of professional met een website, blog of kennisbank. Het roept de vraag op: wat is jouw beleid ten aanzien van AI, zowel als consument als producent van content?
Als je een kennisintensief bedrijf runt… zoals een adviesbureau, een gespecialiseerde webshop of een opleidingsinstituut, dan is de kernvraag of je AI wilt toelaten als auteur. Je zou kunnen overwegen om, net als Wikipedia, een duidelijk beleid op te stellen. Een mogelijkheid is om AI alleen in te zetten voor ondersteunende taken zoals het genereren van meta-beschrijvingen of het vertalen van bestaande teksten, waarbij je altijd een menselijke expert de eindredactie laat doen. Dit beschermt je autoriteit en betrouwbaarheid.
Als je waardevolle content op je website hebt staan… dan is het zaak je bewust te zijn van de datahonger van AI-bedrijven. Je zou kunnen nagaan of je robots.txt of andere technische maatregelen hebt ingesteld om ongewenst schrapen door bots te beperken. Tegelijkertijd kun je overwegen of je, zoals Wikipedia, de waarde van je data formeel wilt erkennen. Dit hoeft niet per se een verkoop te zijn; het kan ook betekenen dat je duidelijker communiceert onder welke voorwaarden anderen je content mogen gebruiken voor training.
Als je AI-tools gebruikt voor contentcreatie… dan is de waarschuwing van Wikipedia over hallucinaties extra relevant. Een concrete suggestie is om het “menselijke controle”-principe over te nemen. Stel een protocol in waarbij elke door AI gegenereerde output, of het nu een productbeschrijving, een blogidee of een social media-post is, wordt gecheckt op feitelijke juistheid en consistentie met je bronnen voordat het live gaat. Dit minimaliseert het risico op het verspreiden van onjuiste informatie.
De kern is dat je een bewuste keuze maakt. Laat je AI toe als mede-auteur, of reserveer die rol voor mensen en gebruik AI alleen als gereedschap onder strikt toezicht? Het voorbeeld van Wikipedia laat zien dat een hybride aanpak, met duidelijke grenzen, een werkbare strategie kan zijn om kwaliteit te waarborgen in een tijdperk van automatisering.
Bron: Computable