De keuze voor een AI-leverancier is steeds vaker een strategische en ethische afweging, niet alleen een technische. Het conflict tussen het AI-bedrijf Anthropic en het Amerikaanse ministerie van Defensie, zoals beschreven in AI Report, maakt dat pijnlijk duidelijk. Anthropic weigerde volgens het artikel zijn technologie in te zetten voor massasurveillance van burgers en autonome wapens, wat leidde tot een plaatsing op een zwarte lijst. Tegelijkertijd tekende een concurrent, OpenAI, binnen enkele uren een deal met het leger. Voor een ondernemer die AI wil inzetten, roept dit een fundamentele vraag op: op welke principes bouwt jouw leverancier, en hoe stevig zijn die verankerd?
Waarom ethische principes onder druk kunnen staan
Het verhaal rond Anthropic illustreert dat zelfs bedrijven met uitgesproken ethische grenzen voor dilemma’s komen te staan. Het artikel meldt dat het bedrijf, in dezelfde week als het conflict met het Pentagon, stilletjes een kernbelofte schrapte: de garantie om nooit een model te trainen zonder veiligheidsgaranties. Dit toont aan dat principes kunnen verschuiven onder commerciële, politieke of technologische druk. Voor jou als afnemer betekent dit dat een mooie missieverklaring op een website geen garantie is voor de toekomst. De relevantie voor jouw bedrijf kan direct zijn: stel dat je een AI-tool gebruikt voor het screenen van sollicitanten of het analyseren van klantfeedback. Als de onderliggende technologie later wordt ingezet voor controversiële doeleinden, kan dat reputatieschade voor jouw eigen merk met zich meebrengen, of vragen oproepen van klanten en partners.
De opkomst van krachtige, lokale AI
Parallel aan dit ethische debat is er een belangrijke technologische ontwikkeling die meer controle teruggeeft aan de gebruiker. Het Chinese Alibaba bracht volgens het bronartikel Qwen 3.5 uit, een open source AI-model dat zonder internetverbinding op een smartphone kan draaien en op universitair niveau presteert. Dit zogenaamde 9B-model zou zelfs beter scoren dan een dertien keer groter model van OpenAI. De praktische betekenis is groot: ‘good enough’ AI wordt draagbaar en onafhankelijk van de cloud. Dit biedt nieuwe mogelijkheden voor privacy-gevoelige toepassingen of voor gebruik in omgevingen zonder stabiele internetverbinding. De keerzijde, die het artikel ook noemt, is dat hiermee ook de vangrails verdwijnen die cloudleveranciers vaak inbouwen tegen misbruik, zoals voor het maken van deepfakes of spam.
Welke vragen je kunt stellen aan een leverancier
Hoe vertaal je deze inzichten naar een praktisch gesprek met een (potentiële) AI-leverancier? Het gaat er niet om een bedrijf te veroordelen, maar om te begrijpen waar je in zaken mee gaat. Je zou kunnen doorvragen naar de langetermijnvisie op het gebruik van hun technologie. Vraag naar concrete voorbeelden van projecten die ze hebben geweigerd en waarom. Probeer te achterhalen hoe hun ethische richtlijnen zijn verankerd in de bedrijfsstructuur: zijn het slechts woorden, of zijn er bijvoorbeeld een onafhankelijke adviesraad en duidelijke escalatieprocedures? Voor tools die je overweegt in te zetten, is het ook verstandig om na te gaan of de verwerking van jouw data lokaal kan plaatsvinden, zoals met de nieuwe generatie kleine modellen mogelijk wordt, of dat alles via de cloud van de leverancier moet lopen.
Hoe kun je dit vandaag toepassen?
Een mogelijke eerste stap is om bij je volgende evaluatie van een AI-tool niet alleen naar de prijs en features te kijken, maar ook een gesprek aan te gaan over de principes van de maker. Je zou kunnen vragen naar hun beleid rondom het gebruik van data voor modeltraining en of ze open staan voor het leveren van een versie die on-premises of lokaal kan draaien. Voor specifieke toepassingen waar privacy cruciaal is, is het de moeite waard om de ontwikkelingen rond kleine, krachtige open source modellen zoals Qwen 3.5 in de gaten te houden, omdat deze op termijn een alternatief kunnen bieden.
De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.
Bron: AI Report