De grote AI-bedrijven zoals Anthropic, OpenAI en Google beloven al jaren dat ze zichzelf verantwoordelijk zullen reguleren. Ze hebben eigen ethische commissies opgericht en richtlijnen gepubliceerd. Het probleem is dat dit allemaal vrijwillige toezeggingen zijn. Er zijn nog nauwelijks wettelijke regels die hen binden. Voor jou als ondernemer die op hun tools vertrouwt, betekent dit dat de spelregels waaronder je werkt, op elk moment kunnen veranderen op basis van een interne beslissing van een bedrijf. Je bouwt een deel van je proces op een fundament dat juridisch gezien nog erg wankel is.

Het vacuüm waarin zelfregulering floreert

De ontwikkeling van generatieve AI gaat zo snel dat wetgevers wereldwijd het niet kunnen bijbenen. In dit vacuüm hebben de techbedrijven het initiatief genomen om hun eigen gedragsregels op te stellen. Dit klinkt positief, maar het creëert een situatie waarin de bedrijven zelf bepalen wat verantwoordelijk gebruik is. Wat vandaag is toegestaan in hun voorwaarden, kan morgen worden aangepast na een incident of publieke druk. Voor een mkb’er die bijvoorbeeld een klantenservice-chatbot op basis van een API heeft gebouwd, kan zo’n wijziging desastreus zijn. Je bent dan afhankelijk van de goodwill en het risicobeheer van een externe partij.

Het praktische risico voor jouw bedrijfsvoering

Het risico zit niet per se in kwaadwillende bedrijven, maar in de onvoorspelbaarheid. Stel, je gebruikt een AI-tool voor het screenen van sollicitanten. Het bedrijf achter die tool kan na een negatief nieuwsbericht over bias besluiten die functionaliteit tijdelijk uit te schakelen of de toegang te beperken. Jouw wervingsproces ligt dan plots stil. Of een tool voor het genereren van marketingteksten kan worden aangepast, waardoor de output ineens van kwaliteit verandert. Omdat er geen wet is die zegt wat een AI-bedrijf wel en niet mag doen, heb je als gebruiker weinig juridische grond om op te staan. Je contract gaat over service levels, niet over het behoud van functionaliteit zoals je die kent.

Hoe verklein je je afhankelijkheid?

Je kunt niet wachten tot er wetgeving is. Wat je wel kunt doen is je afhankelijkheid van één leverancier of één specifieke AI-methode beperken. Bouw geen cruciaal bedrijfsproces om één gesloten, propriëtaire AI-API. Onderzoek of er open-source alternatieven zijn die je meer in eigen beheer kunt houden, ook al zijn die misschien minder krachtig. Zorg ervoor dat je data en processen zo zijn ingericht dat je, als het moet, kunt terugvallen op een semi-geautomatiseerd of zelfs handmatig proces. Dit klinkt omslachtig, maar het is een vorm van risicospreiding. Documenteer daarnaast duidelijk welke AI-tools je gebruikt en voor welke taken, zodat je bij veranderingen snel kunt schakelen.

Hoe kun je dit vandaag toepassen?

Maak een eenvoudige inventarisatie: voor welke kritieke taken gebruik je AI-tools van grote, externe aanbieders? Voor elke taak, bedenk een plan B. Dit kan een andere tool zijn, een open-source model dat je lokaal draait, of een terugval op een menselijke handeling. Bespreek dit risico bij je volgende teamoverleg, niet als doemscenario, maar als praktische bedrijfscontinuïteit.

Bron: Techcrunch