Anthropic, de maker van de AI Claude, heeft zijn eigen strikte veiligheidsbeleid versoepeld. Waar het bedrijf eerst alleen modellen wilde uitbrengen die het zelf als volledig ‘veilig’ classificeerde, laat het nu ruimte voor het uitbrengen van krachtigere modellen die mogelijk meer risico’s met zich meebrengen. Dit is een direct gevolg van de enorme marktdruk en de race om de krachtigste AI te bouwen. Voor jou als ondernemer betekent dit dat je niet blind kunt varen op de veiligheidsbeloften van een leverancier. Je moet zelf actief nadenken over de risico’s van de tools waar je op bouwt.
Waarom een leverancier zijn eigen regels verandert
De AI-markt is extreem competitief geworden. Bedrijven als OpenAI, Google en Meta zetten alles op alles om steeds krachtigere modellen uit te brengen. Anthropic, dat zich altijd profileerde als de meest verantwoordelijke en veilige speler, voelt die druk. Het oorspronkelijke beleid om alleen volledig veilige modellen uit te brengen, bleek in de praktijk een rem op innovatie en snelheid. Volgens het bedrijf zelf wil het nu een “meer genuanceerde” benadering, waarbij het sneller kan innoveren maar wel belooft risico’s te blijven monitoren en beperken. Het is een klassieke afweging tussen snelheid en veiligheid, waarbij de markt nu lijkt te winnen.
Wat dit betekent voor jouw afhankelijkheid van AI-leveranciers
Dit nieuws is een belangrijke waarschuwing voor elke ondernemer die AI-tools in zijn bedrijfsprocessen integreert. Het toont aan dat de beloften en principes van een leverancier onder druk van de markt kunnen veranderen. Je kunt er niet meer automatisch vanuit gaan dat een leverancier als Anthropic altijd de meest conservatieve, veilige keuze maakt. De verantwoordelijkheid voor het beheersen van risico’s – zoals het lekken van gevoelige data, het genereren van incorrecte informatie of het creëren van juridische aansprakelijkheid – verschuift daarmee nog meer naar jou, de afnemer.
Hoe verhoud je je tot leveranciers die ‘veiligheid’ versus ‘snelheid’ kiezen
Je moet leveranciersbeheer voor AI-tools serieus nemen, net zoals je dat voor andere kritische software zou doen. Vraag niet alleen naar features en prijs, maar ook naar het concrete veiligheidsbeleid. Vraag door: wat zijn de specifieke risico’s van dit model? Hoe worden die gemonitord? Wat is het beleid bij incidenten? Zie de keuze voor een leverancier niet als een eenmalige beslissing, maar als een doorlopende relatie. Wees je ervan bewust dat een leverancier die vandaag kiest voor veiligheid, dat morgen onder druk van aandeelhouders of concurrentie kan laten varen.
Hoe kun je dit vandaag toepassen?
Begin met het in kaart brengen van alle AI-tools die je gebruikt of overweegt. Stel voor elk een korte risico-analyse op: wat zijn de potentiële gevolgen als de tool fouten maakt of data lekt? Gebruik deze analyse om een bewustere keuze te maken tussen de snelste tool en de tool die het beste past bij jouw risicotolerantie. Een optie is om voor kritieke processen te kiezen voor modellen met sterke veiligheidsgaranties, en voor minder risicovolle toepassingen te experimenteren met de nieuwste, krachtigste opties.
Bron: Aibusiness