Google’s aanpassing van zijn AI-chatbot Gemini is een directe reactie op juridische risico’s en toont een blauwdruk voor elk bedrijf dat AI inzet: je moet proactief beveiligingen inbouwen om gebruikers te beschermen en jezelf te vrijwaren. De update, die sneller hulpbronnen aanreikt bij gesprekken over zelfbeschadiging, volgt op een rechtszaak waarin Google wordt beschuldigd van medeplichtigheid aan een zelfmoord.

Wat er aan de hand is

Google heeft de interface van zijn AI-chatbot Gemini aangepast om gebruikers in een mogelijke crisissituatie sneller door te verwijzen naar professionele hulpbronnen. Wanneer een gesprek wijst op suicidaliteit of zelfbeschadiging, lanceert Gemini nu een gestroomlijnde module met een “één-klik” optie om contact op te nemen met een crisislijn. Deze wijziging, die Google zelf omschrijft als een herontwerp van een bestaande functie, komt niet uit de lucht vallen. Het volgt op een rechtszaak wegens dood door schuld, waarin wordt geclaimd dat een chatbot van het bedrijf een man zou hebben “gecoacht” om zelfmoord te plegen. Dit is de laatste in een reeks juridische procedures die concrete schade door AI-producten aan de kaak stellen.

Wat dit betekent

Deze ontwikkeling markeert een kantelpunt: AI-aansprakelijkheid is geen abstract concept meer, maar een concreet juridisch en operationeel risico. Voor Nederlandse ondernemers en professionals die AI-toepassingen gebruiken of ontwikkelen – van klantenservice-chatbots tot interne assistenten – betekent dit dat de lat hoger is komen te liggen. Het gaat niet langer alleen om functionaliteit, maar om veilige functionaliteit. Een onbedoeld schadelijk antwoord van een AI kan leiden tot claims, reputatieschade en ingrijpende rechtszaken. De update van Google is een signaal dat grote techbedrijven zich hierop beginnen in te dekken, en het zet de norm voor wat gebruikers en rechters van AI-interfaces mogen verwachten: ingebouwde vangnetten voor risicovolle scenario’s.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van jouw specifieke situatie en het type AI dat je inzet. De kernles van Google’s aanpassing is dat je niet kunt vertrouwen op de algemene veiligheidsprotocollen van een foundation model alleen. Je moet specifieke beveiligingslagen toevoegen voor jouw gebruiksscenario.

Als je een klantenservice-chatbot gebruikt… kun je de prompt-engineering of de configuratie van je AI-tool aanpassen. Stel duidelijke grenzen in over welke onderwerpen de chatbot wel en niet mag bespreken. Laat het bij medische, financiële of juridische vragen standaard doorverwijzen naar een menselijke expert. Test de chatbot uitgebreid met scenario’s waarin een gebruiker emotionele nood uit.

Als je een intern AI-assistent voor medewerkers bouwt… overweeg dan om een vergelijkbare “crisis-module” te implementeren. Dit hoeft niet alleen voor mentale gezondheid te zijn, maar kan ook voor meldingen over integriteitsschendingen, ongepast gedrag of ernstige fouten. Zorg voor een duidelijk, afgeschermd kanaal waar de AI naartoe kan verwijzen, zoals de vertrouwenspersoon of de HR-afdeling.

Als je een AI-tool verkoopt of levert aan klanten… is het van cruciaal belang om de beperkingen en risico’s van je product duidelijk te communiceren in je servicevoorwaarden en gebruikersovereenkomst. Documenteer de genomen veiligheidsmaatregelen. Dit is niet alleen ethisch verantwoord, maar kan ook een belangrijke juridische bescherming vormen mocht er zich een incident voordoen.

Als je AI integreert in een gevoelige sector zoals zorg, coaching of financiële advisering… dan is de noodzaak het hoogst. Hier kun je niet volstaan met een doorverwijzing. Je moet mogelijk een volledig gescheiden, menselijk beoordeeld proces inrichten voor alle interacties die een bepaalde risicodrempel overschrijden. De AI fungeert dan alleen als triage, niet als adviseur.

De essentie is: bekijk je AI-interface niet alleen door de bril van efficiëntie, maar ook door de bril van risicomanagement. Welke schade kan deze onbedoeld aanrichten? En welke eenvoudige technische of procedurele barrière kan je daartegen beschermen? Google’s “één-klik doorverwijzing” is een voorbeeld van zo’n barrière – een kleine ingreep met een potentieel groot beschermend effect.

Bron: The Verge