Het nieuws dat AI-bedrijf Anthropic weigert zijn modellen beschikbaar te stellen voor massasurveillance en autonome wapens, terwijl concurrenten dit wel doen, is meer dan een politiek conflict. Het is een praktische les voor elke Nederlandse tech-ondernemer die software, AI of data levert aan grote organisaties of overheden. Het toont het belang van het vooraf en contractueel vastleggen van je eigen ethische grenzen, je ‘rode lijnen’.
Waarom dit niet alleen over defensie gaat
De kern van het conflict is dat het Pentagon volgens het nieuws nieuwe contractvoorwaarden eist die AI-modellen toestaan voor “elke legale toepassing”. Voor een bedrijf als Anthropic, dat expliciete veiligheids- en ethische richtlijnen in zijn modellen heeft ingebouwd, betekent dit het weghalen van die beveiligingen. De consequentie is dat hun technologie dan ingezet kan worden voor toepassingen waar ze principieel tegen zijn, zoals autonome ‘killer robots’ of massasurveillance. Dit scenario is niet uniek voor defensie. Elke grote opdrachtgever – een gemeente, een bank, een multinational – kan in zijn algemene voorwaarden opnemen dat geleverde software of data voor “elke legale bedrijfsdoeleinden” mag worden gebruikt. Zonder eigen specifieke beperkingen sta je dan machteloos als je product voor iets wordt ingezet dat tegen je principes indruist.
Het risico van het niet stellen van grenzen
Anthropic wordt volgens het bericht door het Pentagon nu bestempeld als een “supply chain risk”, een label dat normaal voor nationale veiligheidsdreigingen wordt gebruikt. Dit toont het zakelijke risico: je kunt uitgesloten worden van aanbestedingen of opdrachten als je je voorwaarden stelt. De keerzijde, zoals de casus laat zien, is dat meegaan in de eisen van de klant je morele kompas en mogelijk je reputatie kan kosten. Voor een startup of scale-up die afhankelijk is van een paar grote klanten, is dit een reëel dilemma. Het nieuws dat concurrenten OpenAI en xAI volgens de bron wel akkoord zijn gegaan, zet de weigeraar verder onder druk. Het onderstreept dat een gezamenlijke sectorbrede aanpak, bijvoorbeeld via brancheverenigingen, weerbaarheid kan bieden.
Hoe definieer je jouw rode lijnen?
De eerste stap is intern. Bespreek met je team en eventueel aandeelhouders: voor welke toepassingen mag onze technologie absoluut niet worden gebruikt? Denk niet alleen aan extreme gevallen, maar ook aan dagelijkse dilemma’s. Mag je data-analyseplatform gebruikt worden voor het profileren van kwetsbare groepen? Mag je gezichtsherkenningssoftware worden ingezet voor werknemersmonitoring zonder toestemming? Maak deze grenzen expliciet en documenteer ze. Dit wordt je interne beleid. De volgende stap is om deze grenzen te vertalen naar contractuele taal. Dit kan in de vorm van een aanvaardbaar gebruik-beleid (Acceptable Use Policy, AUP) dat integraal onderdeel uitmaakt van je algemene voorwaarden of specifieke serviceovereenkomsten.
Hoe kun je dit vandaag toepassen?
Neem je standaard serviceovereenkomst of algemene voorwaarden erbij. Is er een clausule over ’toegestaan gebruik’ die alleen verwijst naar ‘wettelijke doeleinden’? Overweeg om deze aan te vullen met een bijlage waarin je specifiek uitsluitingen definieert. Je kunt bijvoorbeeld opnemen: “De dienst mag niet worden gebruikt voor [bijv. het ontwikkelen van volledig autonome wapensystemen, massasurveillance zonder gerechtelijk bevel, of het nemen van geautomatiseerde beslissingen die juridische gevolgen hebben zonder menselijke tussenkomst].” Raadpleeg een jurist gespecialiseerd in IT-recht om dit juridisch sluitend te formuleren. Dit geeft je een basis om op terug te vallen bij onderhandelingen met een potentiële grote klant.
Bron: The Verge