Het AI-bedrijf Anthropic staat officieel op een zwarte lijst van het Amerikaanse ministerie van Defensie omdat het twee principes niet wil loslaten: het wil geen AI-systemen bouwen voor massasurveillance van Amerikaanse burgers en geen autonome wapensystemen. Deze weigering heeft directe gevolgen: voormalig president Trump heeft volgens het bronartikel alle federale diensten opgedragen per direct te stoppen met het gebruik van Anthropic-producten. Het conflict illustreert een fundamentele vraag waar elke ondernemer of professional mee te maken kan krijgen: waar trek je de grens bij wat je wel en niet doet voor een klant, vooral als het om grote, invloedrijke partijen gaat?
De praktische prijs van een principe
De keuze van Anthropic is niet louter theoretisch. Terwijl Anthropic buiten de deur wordt gehouden, tekende concurrent OpenAI volgens het artikel al 4,5 uur na de breuk een deal met het leger. Dit plaatst de ethische discussie in een scherp zakelijk perspectief. Het laat zien dat het stellen van grenzen directe financiële en strategische consequenties heeft. Het roept ook de vraag op of een techbedrijf invloed mag uitoefenen op het buitenlandbeleid van een democratie, een vraag die vertaald kan worden naar elke leverancier die principes heeft die botsen met de opdrachtgever.
De keerzijde van de medaille
Het verhaal kent volgens het artikel echter ook een andere kant. In dezelfde week dat Anthropic deze principiële standpunten innam, schrapte het bedrijf stilletjes een andere belangrijke belofte: de garantie om nooit een AI-model te trainen zonder eerst veiligheidsgaranties te hebben. Deze ontwikkeling maakt de situatie complexer dan een simpel verhaal van ‘goed’ versus ‘fout’. Het onderstreept dat ethische keuzes in de praktijk vaak genuanceerd en soms tegenstrijdig zijn, en dat bedrijven hun standpunten kunnen bijstellen onder druk van concurrentie of vooruitgang.
AI in je broekzak, zonder vangrails
Parallel aan dit ethische conflict beschrijft het artikel een technologische ontwikkeling met grote praktische implicaties: AI op je smartphone, zonder internet. Het Chinese Alibaba heeft met Qwen 3.5 een open source model uitgebracht dat volgens de bron daadwerkelijk nuttige taken kan uitvoeren op een telefoon. Het kleinere 9B-model zou zelfs op universitair niveau hoger scoren dan een dertien keer groter model van OpenAI. Dit betekent dat de grote, dure modellen blijkbaar veel overbodige ‘ballast’ bevatten. De combinatie van krachtigere telefoonchips en deze efficiënte kleine modellen brengt ‘good enough’ AI direct naar de gebruiker. De keerzijde is volgens de auteurs dat je daarmee ook alle centrale vangrails kwijtraakt die misbruik voor bijvoorbeeld pesten, spam of deepfakes kunnen beperken.
Hoe kun je dit vandaag toepassen?
De situatie rond Anthropic nodigt uit om binnen je eigen organisatie het gesprek te voeren over welke klanten of projecten wel of niet passen bij je kernwaarden, en wat je bereid bent op te geven om die waarden te handhaven. Een mogelijkheid is om deze casus te gebruiken als discussiestuk in een teamoverleg over zakelijke ethiek. Daarnaast kun je, als je experimenteert met AI-toepassingen, de opkomst van lokale, offline modellen op je radar houden. Deze ontwikkeling zou op termijn kunnen leiden tot goedkopere en privacyvriendelijkere opties voor specifieke taken, al moet je dan wel zelf nadenken over de beveiliging en het juiste gebruik, zonder de vangrails van een cloudprovider.
Bron: AI Report