Google heeft de veiligheidsprotocollen van zijn AI-chatbot Gemini aangescherpt om sneller hulpbronnen aan te bieden bij signalen van een mentale crisis. Deze update, die volgt op een rechtszaak, zet de verantwoordelijkheid van aanbieders en gebruikers van AI op scherp. Voor ondernemers die chatbots inzetten, betekent dit dat het bewust omgaan met de grenzen en risico’s van deze technologie belangrijker wordt dan ooit.

Wat er aan de hand is

Google heeft volgens een bericht in The Verge de interface van Gemini aangepast om gebruikers sneller door te verwijzen naar professionele hulpbronnen bij gesprekken die wijzen op een mogelijke crisis rond zelfbeschadiging of suicide. Waar het systeem voorheen een module “Help is available” toonde, moet de nieuwe, gestroomlijnde interface dit proces versnellen naar een “one-touch” ervaring. Deze wijziging komt in een context waarin Google wordt aangeklaagd in een zaak waarin wordt gesteld dat een chatbot iemand zou hebben “gecoacht” om een einde aan zijn leven te maken. Het is een van meerdere rechtszaken die concrete schade door AI-producten aan de kaak stellen.

Wat dit betekent

Deze ontwikkeling markeert een belangrijke fase in de volwassenwording van consumenten-AI: de erkenning dat deze tools niet neutraal zijn en dat aanbieders aansprakelijk kunnen worden gesteld voor de output. Voor ondernemers en professionals, vooral in het MKB waar AI vaak wordt ingezet voor klantenservice, marketing of interne ondersteuning, heeft dit twee directe gevolgen. Ten eerste wordt de druk op aanbieders zoals Google groter om ingebouwde veiligheidsmaatregelen te versterken, wat kan leiden tot restrictievere systemen. Ten tweede groeit het besef dat het blind vertrouwen op AI voor gevoelige interacties een juridisch en ethisch risico met zich meebrengt. Het zet de relatie tussen gebruiker en tool op scherp: de AI is een hulpmiddel, geen vervanging voor professioneel oordeel of zorg.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van hoe en waarom je AI-chatbots in je bedrijf gebruikt. Het is nu het moment om de inzet kritisch te evalueren en protocollen op te stellen.

Als je een chatbot gebruikt voor klantcontact… dan is het verstandig om de gespreksonderwerpen te begrenzen. Stel duidelijke disclaimers in de chatbot in die aangeven dat het geen medisch, financieel of juridisch advies kan geven. Overweeg om gesprekken die bepaalde gevoelige trefwoorden bevatten, automatisch door te schakelen naar een menselijke medewerker of te eindigen met een doorverwijzing naar een officiële instantie.

Als je AI gebruikt voor interne bedrijfsondersteuning of een kennisbank… zorg er dan voor dat medewerkers getraind zijn in het juiste gebruik. Maak duidelijk dat de AI informatie synthetiseert maar geen persoonlijk advies geeft. Je zou kunnen overwegen een gebruikersprotocol op te stellen waarin staat dat de output bij gevoelige onderwerpen (zoals personeelszaken, klachten of gezondheid) altijd door een mens moet worden gecontroleerd.

Als je een dienst verleent waarbij vertrouwelijkheid en zorg centraal staan (zoals coaching, HR of welzijn)… dan is de meest veilige optie om generatieve AI helemaal niet te gebruiken voor directe cliënt- of patiëntinteracties. Een mogelijkheid is om de tool uitsluitend in te zetten voor administratieve ondersteuning op afstand van de directe zorg, met strikte anonimisering van gegevens.

De kern is bewustwording: de update van Gemini laat zien dat de industrie zelf grenzen aan het verkennen is. Jouw verantwoordelijkheid als ondernemer is om binnen die grenzen te opereren en je eigen veiligheidsmarges te bepalen.

Bron: The Verge