OpenAI heeft zijn eigen regels aangepast om een contract met het Amerikaanse ministerie van Defensie te kunnen sluiten. Waar concurrent Anthropic twee harde grenzen stelde – geen massa-surveillance van burgers en geen dodelijke autonome wapens – onderhandelde OpenAI nieuwe voorwaarden. Het bedrijf zegt zijn kernprincipes te behouden, maar de kwestie laat zien welk dilemma elke ondernemer kan treffen: wat doe je als een grote, invloedrijke klant iets wil dat tegen je eigen ethische richtlijnen ingaat?
Het praktische conflict tussen principe en opdracht
Voor bedrijven die geavanceerde technologie ontwikkelen, zijn ethische richtlijnen steeds vaker een verkoopargument. Ze geven klanten vertrouwen. Maar diezelfde richtlijnen kunnen botsen met concrete zakelijke kansen, zeker als die kansen van machtige partijen zoals overheden komen. Het Pentagon wilde AI-systemen gebruiken voor taken zoals cybersecurity en veteranenzorg. OpenAI wilde die opdracht binnenhalen, maar zijn eigen beleid verbood algemene militaire toepassingen. De oplossing was niet om ’nee’ te zeggen, maar om het beleid te herschrijven zodat het voor deze specifieke klant wél kon.
Dit is geen abstract moreel vraagstuk. Het gaat over contractonderhandelingen. Een klant vraagt om een aanpassing van je algemene servicevoorwaarden. Jij moet beslissen: pas je je voorwaarden aan voor deze ene klant, met het risico dat je principes waterig worden? Of houd je vast aan je regels en loop je de opdracht mis, mogelijk aan een concurrent die minder principieel is?
Waarom dit voor jou als ondernemer relevant is
Je hoeft geen AI-leverancier aan het Pentagon te zijn om met dit dilemma geconfronteerd te worden. Stel, je ontwikkelt software voor recruitment en een grote klant wil deze stiekem gebruiken om kandidaten op geslacht of afkomst te filteren, iets wat jij expliciet uitsluit. Of je biedt data-analyse aan en een klant wil de tool inzetten voor manipulatief gedragsgericht adverteren naar kwetsbare groepen. De druk om mee te buigen voor een belangrijk contract is reëel, vooral in een uitdagende economie.
De keuze van OpenAI – aanpassen onder specifieke voorwaarden – laat een middenweg zien. Ze zeggen hun verbod op massa-surveillance en autonome wapens te handhaven, maar schrapten een algemeen verbod op militair gebruik. In de communicatie richting het publiek blijf je dus verwijzen naar je kernprincipes, terwijl je in de praktijk ruimte creëert voor uitzonderingen. Het gevaar is duidelijk: wat begint als een uitzondering voor één klant, kan een precedent worden voor de volgende.
Hoe kun je dit vandaag toepassen?
Bespreek dit scenario bij je volgende strategie- of salesoverleg. Vraag niet of je ethische grenzen hebt, maar wat ze concreet zijn en wat je doet als een droomklant erom vraagt ze te overschrijden. Schrijf deze grenzen op in je algemene voorwaarden, maar wees voorbereid op de onderhandelingstafel. Een optie is om, zoals OpenAI lijkt te doen, zeer specifieke verboden te formuleren (geen massa-surveillance) in plaats van brede categorieën (geen militair gebruik). Zo behoud je een helder moreel kompas, maar geef je jezelf wel de flexibiliteit om zakelijk te manoeuvreren.
Bron: The Verge