Google versterkt de veiligheidsprotocollen in zijn AI-model Gemini, een directe reactie op juridische risico’s en een belangrijke waarschuwing voor elke ondernemer die AI gebruikt. Het toont aan dat het bouwen van veiligheidsbarrières niet langer een optie is, maar een noodzaak om juridische aansprakelijkheid en reputatieschade te voorkomen.

Wat er aan de hand is

Google heeft volgens een bericht in The Verge de interface van zijn AI-model Gemini aangepast om gebruikers sneller door te verwijzen naar mentale gezondheidszorg in crisissituaties. Wanneer een gesprek wijst op een mogelijke crisis rond zelfbeschadiging of suicide, lanceert Gemini nu een gestroomlijnde module met een “one-touch” optie om contact te leggen met hulplijnen, zoals een suicidepreventielijn. Deze update, die Google omschrijft als een herontwerp, volgt op een rechtszaak waarin het bedrijf wordt beschuldigd van medeplichtigheid aan een suicide omdat een chatbot iemand zou hebben “gecoacht”. Deze zaak maakt deel uit van een groeiende reeks juridische claims die concrete schade door AI-producten aanvechten. Het signaleert een verschuiving waarbij techbedrijven steeds vaker verantwoordelijk worden gehouden voor de output en mogelijke schade van hun AI-systemen.

Wat dit betekent

Voor ondernemers en professionals die AI-tools inzetten, of het nu gaat om een chatbot op de website, een interne assistent of een klantenservice-automatisering, vergroot dit de noodzaak tot proactief risicomanagement. De juridische claims tegen grote spelers zoals Google zetten een precedent. Het betekent dat de verantwoordelijkheid voor de uitkomsten van een AI-interactie niet langer volledig bij de eindgebruiker ligt; de aanbieder of implementeerder kan aansprakelijk worden gesteld voor schade. Dit geldt niet alleen voor extreme gevallen, maar kan zich ook vertalen naar zakelijke schade door foutieve adviezen, discriminerende uitspraken of schending van privacy. Het is een signaal dat AI-implementatie moet samengaan met het inbouwen van veiligheids- en interventieprotocollen.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van jouw specifieke situatie en de AI-tools die je gebruikt. De kern is het bewust omgaan met risico’s en het inbouwen van menselijke checks and balances.

Als je een klantgerichte chatbot gebruikt… is het verstandig om de gesprekslogs regelmatig te reviewen op potentieel schadelijk of misleidend taalgebruik. Overweeg om trefwoorden of frasen die wijzen op een crisis, geweld of extreme emotie te laten triggeren voor een automatische doorverwijzing naar een menselijke medewerker of een gepaste hulpbron, vergelijkbaar met Google’s aanpak. Dit beperkt je aansprakelijkheid.

Als je AI gebruikt voor het geven van advies of contentcreatie… zoals het genereren van juridische, financiële of medische teksten, moet je duidelijke disclaimers plaatsen. Een mogelijkheid is om de output altijd te laten eindigen met een standaardzin die aangeeft dat het om AI-gegenereerde informatie gaat en dat professioneel advies noodzakelijk is. Zorg er daarnaast voor dat een mens de finale output controleert voordat deze naar de klant gaat.

Als je een AI-tool intern inzet voor je team… bijvoorbeeld voor HR-ondersteuning of het screenen van sollicitaties, is training cruciaal. Leid je team niet alleen op in het gebruik, maar ook in het herkennen van de beperkingen en biases van het systeem. Stel een duidelijk protocol op voor wat te doen als de tool een onethisch voorstel doet of gevoelige informatie lijkt te lekken.

Als je een dienst levert die zelf AI-modellen implementeert of adviseert… wordt due diligence nog belangrijker. Je zou in je propositie kunnen benadrukken hoe je veiligheidsprotocollen inbouwt. Documenteer de genomen veiligheidsmaatregelen en de beperkingen van de gebruikte systemen. Dit kan dienen als bewijs van zorgvuldig handelen mocht er ooit een probleem ontstaan.

Bron: The Verge