Wikipedia verbiedt AI-gegenereerde inhoud op haar platform, maar verkoopt tegelijkertijd haar data aan grote techbedrijven voor AI-training. Deze opmerkelijke spreidstand toont een groeiende spanning: platforms willen de kwaliteit van menselijke content beschermen, maar profiteren wel van de vraag naar diezelfde content als brandstof voor AI. Voor ondernemers die content maken of gebruiken, is dit een signaal om bewust om te gaan met waar en hoe ze AI inzetten.
Wat er aan de hand is
De online-encyclopedie Wikipedia heeft een formeel verbod ingesteld op het gebruik van grote taalmodellen (LLM’s) om inhoud te schrijven of te herschrijven. Dit besluit, genomen door de gemeenschap van een kwart miljoen vrijwillige redacteuren, komt voort uit de zorg dat AI de kernprincipes van Wikipedia schendt, zoals verificatie en bronvermelding. Er zijn twee uitzonderingen: AI mag worden gebruikt voor vertalingen en kleine tekstcorrecties, mits een mens deze controleert. De organisatie waarschuwt expliciet voor het risico dat LLM’s verder gaan dan gevraagd en de betekenis van tekst veranderen, wat leidt tot inhoud die niet langer door bronnen wordt onderbouwd.
Tegelijkertijd sloot de non-profit organisatie, die draait op donaties, deals met bedrijven als Microsoft, Meta en Amazon. Deze bedrijven mogen Wikipedia-inhoud gebruiken om hun eigen AI-modellen te trainen. Wikipedia worstelt bovendien met een stortvloed aan geautomatiseerde bots die de site leegschrapen voor trainingsdata. Dit verstoort de toegang en heeft de bandbreedte voor multimediadownloads tussen begin 2024 en april 2025 met 50 procent doen stijgen. Minstens 65 procent van dit resource-intensieve verkeer blijkt van bots afkomstig.
Wat dit betekent
Deze dubbele standaard – AI-inhoud verbieden maar wel data verkopen – is een belangrijk signaal voor iedereen die met content werkt. Het betekent dat zelfs een platform dat volledig op vrijwilligers draait, de intrinsieke waarde van door mensen geverifieerde informatie erkent en beschermt. Tegelijkertijd erkent het de enorme economische waarde van diezelfde informatie als grondstof voor AI. Voor ondernemers en professionals vertaalt dit zich naar een groeiende noodzaak om onderscheid te maken tussen content die puur voor AI-generatie is bedoeld en content die bedoeld is voor menselijke consumptie en vertrouwen. Het illustreert ook de operationele last die AI-dataverzameling met zich meebrengt voor contentplatforms, een kostenpost die uiteindelijk ergens betaald moet worden.
Hoe je dit kunt toepassen
De praktische toepassing hangt af van jouw situatie. Het nieuws van Wikipedia nodigt uit tot bewustwording over hoe je zelf omgaat met AI en content. Het is geen directe handleiding, maar een kans om je eigen beleid tegen het licht te houden.
Als je een website of blog runt met belangrijke, feitelijke informatie… overweeg dan om transparant te zijn over het gebruik van AI. Je zou kunnen aangeven welke content door mensen is geschreven en gecontroleerd, en welke met ondersteuning van tools is gemaakt. Dit bouwt vertrouwen op, net zoals Wikipedia dat doet door AI-inhoud te verbieden.
Als je AI-tools gebruikt voor het maken of bewerken van content… is het verstandig het Wikipedia-voorbeeld van menselijke controle te volgen. Zelfs voor vertalingen of kleine correcties, zoals Wikipedia toestaat, blijft een menselijke eindredactie cruciaal om te zorgen dat de betekenis en de feitelijke juistheid behouden blijven.
Als je overweegt om je eigen bedrijfsdata of content beschikbaar te stellen voor AI-training… dan laat dit voorbeeld zien dat dit een bewuste afweging is tussen korte-termijnopbrengst en lange-termijncontrole. Je zou kunnen nadenken over voorwaarden, zoals Wikipedia die stelt in deals, om ervoor te zorgen dat je content op een verantwoorde manier wordt gebruikt.
Als je merkt dat de prestaties van je eigen website of applicatie achteruitgaan door onverklaarbaar veel verkeer… kan het de moeite waard zijn om te onderzoeken of een deel daarvan afkomstig is van AI-dataverzamelbots. Het monitoren van je verkeer op bot-activiteit, zoals Wikipedia doet, kan helpen om onnodige infrastructuurkosten te identificeren en beheersen.
Bron: Computable