Wikipedia verbiedt AI-gegenereerde inhoud op haar platform, maar verkoopt tegelijkertijd dezelfde data aan grote techbedrijven voor AI-training. Deze dubbele standaard zet de discussie over de inzet van AI in je eigen bedrijf op scherp: wanneer is het verantwoord en wanneer ondermijnt het de betrouwbaarheid waar je organisatie op draait?

Wat er aan de hand is

De online encyclopedie Wikipedia heeft na intern debat een formeel verbod ingesteld op het gebruik van grote taalmodellen (LLM’s) om inhoud te schrijven of te herschrijven. De organisatie, die draait op een kwart miljoen vrijwillige redacteuren, stelt dat het gebruik van AI “vaak de kernprincipes van Wikipedia schendt”. Er zijn twee uitzonderingen: AI mag worden gebruikt voor vertalingen en kleine tekstcorrecties, mits een mens deze controleert. De beleidstekst waarschuwt expliciet voor het risico dat LLM’s “verder gaan dan gevraagd en de betekenis van de tekst zodanig veranderen dat die niet langer wordt onderbouwd door de geciteerde bronnen”. Tegelijkertijd sloot Wikipedia, volgens het artikel in Computable, deals met Microsoft, Meta en Amazon om hun AI-modellen te trainen op Wikipedia-inhoud. De organisatie worstelt ook met bots die de site leegschrapen voor trainingsdata, wat de bandbreedte voor multimediadownloads met 50 procent deed stijgen en leidde tot hogere infrastructuurkosten.

Wat dit betekent

Deze situatie illustreert een fundamentele spanning die ook voor bedrijven relevant is: de waarde van menselijke controle versus de schaalbaarheid van automatisering. Voor sectoren waar betrouwbaarheid, feitelijke juistheid en aansprakelijkheid cruciaal zijn – zoals juridische dienstverlening, financiële advisering, zorg en journalistiek – is dit een direct signaal. Het betekent dat zelfs een platform dat gebouwd is op crowdsourcing en schaal, de grenzen van AI erkent waar het gaat om het creëren van primaire, feitelijke inhoud. De dubbele standaard (verbieden voor eigen gebruik, verkopen voor extern gebruik) toont ook een economische realiteit: data is een waardevol handelsgoed, maar de integriteit van je eigen platform is dat ook. Voor ondernemers betekent dit dat een simpel “ja” of “nee” tegen AI niet volstaat. Je moet een gedifferentieerd beleid ontwikkelen dat per proces of product bepaalt waar AI wel en niet ingezet wordt, en onder welke voorwaarden.

Hoe je dit kunt toepassen

De praktische toepassing hangt af van jouw situatie. Je kunt de principes van Wikipedia als leidraad nemen om je eigen AI-beleid te vormen.

Als je een kennisintensief bedrijf runt, zoals een adviesbureau, een uitgeverij of een opleidingsinstituut, overweeg dan om AI te verbieden voor het schrijven van primaire, autoritatieve content. Je zou AI wel kunnen inzetten als ondersteunend hulpmiddel, bijvoorbeeld voor het genereren van een eerste concept, het controleren van spelling of het vertalen van bestaande teksten. De cruciale stap is dat een expert met domeinkennis het eindresultaat controleert, verifieert en autoriseert, precies zoals Wikipedia dat voorstelt voor vertalingen.

Als je een webshop of een platform met productbeschrijvingen beheert, dan ligt de afweging anders. Hier kan AI helpen om op schaal unieke beschrijvingen te genereren. De les van Wikipedia is om waakzaam te blijven voor “hallucinaties” – het verzinnen van feiten. Een mogelijkheid is om AI gegenereerde teksten te laten controleren op specifieke, verifieerbare productkenmerken voordat ze online gaan, om misleiding van klanten te voorkomen.

Als je een technisch team aanstuurt dat met data werkt, kun je het probleem van de “leegschrapende bots” meenemen in je infrastructuurplanning. Als je een API of een open dataset aanbiedt, kan ongereguleerd gebruik door externe partijen je kosten doen oplopen. Je zou kunnen overwegen om, net als Wikipedia, duidelijke gebruiksvoorwaarden op te stellen en eventueel een gelaagd toegangsmodel te hanteren voor commerciële partijen die je data willen gebruiken voor AI-training.

Als je een algemeen bedrijfsbeleid voor AI wilt opstellen, is een goede eerste stap om onderscheid te maken tussen verschillende gebruiksscenario’s. Maak categorieën zoals “Creatie van nieuwe inhoud”, “Bewerking van bestaande inhoud”, “Analyse van data” en “Klantinteractie”. Voor elke categorie definieer je dan de toegestane tools, de vereiste menselijke controle en de kwaliteitscriteria voor het eindresultaat. Dit voorkomt een alles-of-niets benadering en zorgt voor een verantwoorde inzet van technologie.

Bron: Computable