Wikipedia verbiedt AI-gegenereerde inhoud om de menselijke controle en betrouwbaarheid te waarborgen, maar verkoopt tegelijkertijd dezelfde data aan grote techbedrijven voor hun AI-training. Dit creëert een fundamentele spanning voor ondernemers die afhankelijk zijn van online informatie: de bron die je voor feitencontrole gebruikt, voedt tegelijk de systemen die je mogelijk willen misleiden.
Wat er aan de hand is
De online encyclopedie Wikipedia heeft een formeel beleid ingevoerd dat het gebruik van grote taalmodellen (LLM’s) om inhoud te schrijven of te herschrijven verbiedt. Dit besluit, genomen door de gemeenschap van ongeveer 250.000 vrijwillige redacteuren, volgt op maanden van intern debat. De organisatie stelt dat het gebruik van AI “vaak de kernprincipes van Wikipedia schendt”, uit angst voor misleidende of verzonnen resultaten. Er zijn twee uitzonderingen: AI mag worden gebruikt voor vertalingen en kleine tekstcorrecties, mits een mens deze controleert. Tegelijkertijd heeft de non-profit organisatie, die meer dan 67 miljoen artikelen in 360 talen beheert, deals gesloten met bedrijven als Microsoft, Meta en Amazon. Deze bedrijven mogen Wikipedia-inhoud gebruiken om hun eigen AI-modellen te trainen. Wikipedia worstelt bovendien met een stortvloed aan geautomatiseerde bots die de site “leegschrapen” voor data, wat de bandbreedtekosten opdrijft. Tussen begin 2024 en april 2025 steeg het verkeer voor multimediadownloads met 50 procent door deze bots.
Wat dit betekent
Dit betekent dat de betrouwbaarheid van online informatie een nieuwe, complexe laag krijgt. Voor ondernemers en professionals die Wikipedia vaak als startpunt voor feitencontrole of onderzoek gebruiken, is de bron zelf nu onderdeel van het AI-ecosysteem dat ze proberen te navigeren. De organisatie hanteert een dubbele standaard: wat binnen de eigen muren als onbetrouwbaar en verboden wordt gezien (AI-gegenereerde tekst), wordt buiten de muren verhandeld als waardevolle grondstof. De praktische impact is tweeledig. Enerzijds kun je er iets meer vertrouwen in hebben dat een Wikipedia-artikel dat je nu leest, door mensen is gecontroleerd. Anderzijds voedt elke keer dat je of je team Wikipedia raadpleegt, indirect de AI-modellen van grote techbedrijven, die op hun beurt de informatiestroom op het web beïnvloeden. Het signaal is duidelijk: zelfs de grootste open kennisbank ter wereld vertrouwt AI niet voor haar kernproduct, maar kan de financiële en technologische druk niet weerstaan.
Hoe je dit kunt toepassen
De praktische toepassing hangt sterk af van hoe jij en je organisatie omgaan met informatie. Het kernpunt is bewustwording van deze spanning en het aanpassen van je processen daarop.
Als je onderzoek doet voor een blog, whitepaper of productbeschrijving… blijf Wikipedia gebruiken als snel startpunt, maar beschouw het nooit als primaire of enige bron. Het verbod op AI-inhoud versterkt de menselijke controle, maar lost het bredere probleem van AI-hallucinaties in andere tools niet op. Je zou kunnen overwegen om je verificatieproces uit te breiden: gebruik Wikipedia om een basis te leggen, maar check altijd meerdere, onafhankelijke bronnen (zoals officiële websites, peer-reviewed papers of gerenommeerde nieuwsmedia) voordat je conclusies trekt.
Als je een AI-tool gebruikt voor contentcreatie of samenvattingen… wees extra alert op de bronnen die die tool aanhaalt. Veel AI-modellen zijn getraind op data van onder andere Wikipedia. Een mogelijkheid is om expliciet in je prompts te vragen naar de specifieke bronnen die zijn gebruikt voor een antwoord, en die vervolgens zelf te controleren. Overweeg om een beleid op te stellen waarin staat dat AI-gegenereerde claims die niet eenvoudig te verifiëren zijn, niet worden overgenomen.
Als je verantwoordelijk bent voor het informatie- of AI-beleid binnen je bedrijf… dan illustreert dit Wikipedia-dilemma een belangrijk punt voor interne richtlijnen. Je zou kunnen stellen dat voor kritieke informatie (zoals juridische, medische of financiële adviezen) het gebruik van enkel AI-gegenereerde content of bronnen die sterk leunen op AI-training, wordt ontmoedigd. Een optie is om training te geven over het herkennen van potentiële AI-hallucinaties en het belang van menselijke fact-checking te benadrukken, net zoals Wikipedia dat doet.
Als je zelf data bezit die waardevol zou kunnen zijn voor AI-training… dan laat dit zien dat er een markt is, maar ook ethische en praktische afwegingen. Wikipedia kiest voor een hybride model: gratis toegang voor mensen, betaalde deals voor commerciële partijen. Voor jouw bedrijf zou een mogelijkheid zijn om na te denken over de voorwaarden waaronder je data beschikbaar stelt, wie er toegang toe krijgt en hoe je de integriteit ervan beschermt tegen misbruik door ongecontroleerde scraping.
Bron: Computable