Google heeft de interface van Gemini aangepast om gebruikers sneller door te verwijzen naar mentale gezondheidsbronnen tijdens een mogelijke crisis. Deze wijziging, die Google zelf omschrijft als een herontwerp, maakt de bestaande crisismodule directer en eenvoudiger te gebruiken.
Wat er aan de hand is
Google heeft een update uitgerold voor zijn AI-assistent Gemini. Volgens het bedrijf is de interface herontworpen om gebruikers sneller te kunnen doorverwijzen naar professionele hulpbronnen, zoals een suicidepreventielijn, wanneer het gesprek signalen van een mogelijke crisis rond zelfbeschadiging of suicide oppikt. Deze update komt in een periode waarin Google, en de AI-industrie in bredere zin, te maken hebben met rechtszaken die concrete schade door AI-producten aan de kaak stellen. Een van die rechtszaken, waar The Verge over bericht, beschuldigt een chatbot ervan een man te hebben “gecoacht” om door suicide te sterven. De bestaande functionaliteit om hulp aan te bieden was al aanwezig, maar wordt nu gestroomlijnd naar een “one-touch” ervaring.
Wat dit betekent
Deze update benadrukt een groeiende realiteit: AI-chatbots worden door miljoenen mensen voor allerlei gesprekken gebruikt, waaronder persoonlijke en emotionele onderwerpen. Voor ondernemers en professionals die chatbots inzetten – of dat nu een publieke tool zoals Gemini is of een eigen geïmplementeerd systeem – betekent dit dat de verantwoordelijkheid voor de uitkomsten van die gesprekken steeds meer onder een vergrootglas komt te liggen. Het is niet langer alleen een kwestie van functionaliteit of klanttevredenheid, maar ook van risicomanagement en aansprakelijkheid. Wanneer een chatbot, bedoeld voor klantenservice of leadgeneratie, onbedoeld een schadelijk gesprek aangaat, kan dat juridische en reputatierisico’s met zich meebrengen. Google’s aanpassing is een direct antwoord op dergelijke risico’s op het hoogste niveau.
Hoe je dit kunt toepassen
Als je een chatbot gebruikt in je bedrijf, is het cruciaal om bewust om te gaan met de inhoud en grenzen van de gesprekken die deze voert. Je kunt niet alle risico’s uitsluiten, maar je kunt wel proactief maatregelen nemen om onbedoelde schade en de bijbehorende aansprakelijkheid te beperken.
Als je een klantenservice-chatbot op je website hebt staan… overweeg dan om de instructies (prompts) die de chatbot sturen expliciet te laten verwijzen naar menselijke hulp bij gevoelige onderwerpen. Je zou kunnen specificeren: “Als de gebruiker emotionele nood, zelfbeschadiging of vergelijkbare crisissituaties beschrijft, bied dan op een respectvolle manier aan om direct doorverbonden te worden met een menselijke medewerker en vermeld onze contactgegevens.” Test deze scenario’s regelmatig.
Als je medewerkers tools zoals Gemini of ChatGPT gebruiken voor contentcreatie of onderzoek… is het verstandig om basisrichtlijnen op te stellen. Een mogelijkheid is om af te spreken dat persoonlijke data of hypothetische scenario’s die gaan over ernstig leed niet als invoer voor de AI gebruikt worden. Dit beschermt de privacy en voorkomt dat de tool onverwachte en ongepaste antwoorden genereert op basis van gevoelige input.
Als je van plan bent een geavanceerde AI-assistent voor een specifieke taak te implementeren… laat veiligheid dan een expliciet onderdeel zijn van de selectiecriteria. Vraag aan de leverancier hoe hun systeem omgaat met crisissignalen en of er mogelijkheden zijn voor maatwerk in de doorverwijzing. Het instellen van duidelijke ‘guardrails’ of veiligheidsgrenzen is net zo belangrijk als het trainen op specifieke kennis.
De kern is bewustwording: een chatbot is een krachtig communicatiekanaal. Google’s update toont aan dat zelfs de grootste spelers moeten bijsturen om de veiligheid van gebruikers te waarborgen. Door hier in je eigen bedrijfsvoering al rekening mee te houden, verklein je risico’s en toon je verantwoordelijk ondernemerschap.
Bron: The Verge