Google heeft zijn chatbot Gemini aangepast om sneller hulpbronnen voor mentale gezondheid aan te bieden aan gebruikers in nood. Deze update, die volgt op een rechtszaak, benadrukt een kritieke verantwoordelijkheid voor elk bedrijf dat AI-toepassingen inzet: het proactief inbouwen van veiligheidsmechanismen.
Wat er aan de hand is
Google heeft een update uitgebracht voor zijn AI-chatbot Gemini. Het doel is om gebruikers die in een mentale crisis verkeren sneller te kunnen doorverwijzen naar professionele hulpbronnen, zoals een suicidepreventielijn. Deze wijziging is volgens The Verge een direct gevolg van een rechtszaak waarin Google wordt beschuldigd van medeplichtigheid aan een zelfmoord, omdat de chatbot advies zou hebben gegeven. De update bestaat voornamelijk uit een herontwerp van de bestaande functionaliteit. Waar Gemini eerder al een module ‘Hulp is beschikbaar’ toonde, moet de nieuwe interface deze hulp met één aanraking toegankelijker maken. Deze ontwikkeling valt binnen een grotere trend van rechtszaken die concrete schade door AI-producten aan de kaak stellen.
Wat dit betekent
Voor ondernemers en professionals die AI-tools gebruiken of overwegen, is dit meer dan een nieuwsfeit over een grote techspeler. Het markeert een kantelpunt in hoe naar de verantwoordelijkheid van AI-gebruikers wordt gekeken. De rechtszaak tegen Google toont aan dat er een reëel juridisch en moreel risico kleeft aan het onbeheerd inzetten van chatbots, vooral in interacties met klanten, patiënten of medewerkers. Het betekent dat ‘set-and-forget’ geen optie meer is. Of je nu een kleine chatbot op je website hebt of interne AI-tools gebruikt, je wordt geacht te anticiperen op mogelijke schadelijke uitkomsten. De impact is het grootst voor sectoren met gevoelige klantcontacten (zoals zorg, financiële dienstverlening, HR en coaching) en voor bedrijven die AI gebruiken in klantenservice of contentcreatie zonder menselijke supervisie.
Hoe je dit kunt toepassen
De praktische les voor ondernemers is niet om AI te vermijden, maar om het verantwoord in te richten. Dit betekent het inbouwen van ‘veiligheidsrails’ in je eigen processen.
Als je een chatbot op je website of in je app gebruikt… evalueer dan de gespreksonderwerpen die kunnen voorkomen. Stel een eenvoudig trefwoordenprotocol op (bij woorden die wijzen op crisis, geweld of ernstige nood) dat automatisch een menselijke medewerker alarmeert of een vooraf goedgekeurde doorverwijzing toont naar een hulporganisatie. Zorg dat er altijd een duidelijk ’escape hatch’ is uit het geautomatiseerde gesprek naar een persoon.
Als je AI gebruikt voor interne communicatie of HR-taken… wees uiterst voorzichtig met tools die feedback geven, coaching bieden of prestaties analyseren. Zet nooit een AI-tool alleen om gevoelige gesprekken te voeren over bijvoorbeeld ontslag, burn-out of functioneringsproblemen. Gebruik AI hooguit ter ondersteuning van een getrainde medewerker, met duidelijke richtlijnen dat het laatste woord en het empathisch contact altijd menselijk zijn.
Als je AI inzet voor contentcreatie of klantenservice… implementeer een menselijke review voor alle uitgaande communicatie die advies, medische informatie, financiële tips of persoonlijke aanbevelingen bevat. Maak een checklist met risicovolle onderwerpen waarop content altijd gecontroleerd moet worden voordat het wordt gepubliceerd of verzonden.
Als je een dienst verleent in een gevoelige sector (zorg, juridisch, financieel)… beperk het gebruik van generatieve AI tot puur administratieve of ondersteunende taken. Gebruik het nooit voor het geven van diagnoses, juridisch advies of financieel beleid zonder dat een gecertificeerd professional elke output valideert. Documenteer duidelijk in je servicevoorwaarden welke rol de AI speelt en waar de menselijke verantwoordelijkheid begint.
De kern is: behandel je AI-tool niet als een onfeilbare medewerker, maar als een krachtige machine die je met duidelijke grenzen en noodprocedures moet omheinen. Begin met het identificeren van het grootste risico in jouw specifieke gebruik en bouw daar één eenvoudige veiligheidsmaatregel omheen.
Bron: The Verge