De grote techbedrijven duwen AI-gezondheidschatbots nu naar het grote publiek, maar onafhankelijke experts waarschuwen dat het bewijs voor hun effectiviteit en veiligheid vaak ontbreekt. Voor ondernemers in de zorg en werkgevers die gezondheidsprogramma’s aanbieden, betekent dit een kans om nieuwe diensten te verkennen, maar ook een verantwoordelijkheid om kritisch te blijven op de onderbouwing.

Wat er aan de hand is

Microsoft lanceerde onlangs Copilot Health, een plek in zijn Copilot-app waar gebruikers hun medische dossiers kunnen koppelen en vragen kunnen stellen. Dit volgde kort op de bredere beschikbaarstelling van Amazon’s Health AI, een op een groot taalmodel gebaseerde tool. Deze producten sluiten zich aan bij eerder gelanceerde gezondheidschatbots van OpenAI en Anthropic. Volgens het artikel in Technology Review is gezondheids-AI voor de massa nu officieel een trend. Aan de ene kant is er een duidelijke vraag naar dit soort tools, omdat toegang tot medisch advies via bestaande systemen voor velen moeilijk is. Aan de andere kant zeggen onderzoekers dat deze tools rigoureuzer moeten worden geëvalueerd door onafhankelijke experts, bij voorkeur voordat ze breed worden uitgerold. In een hoog-risicodomein als gezondheid kan het onverstandig zijn om bedrijven hun eigen producten te laten beoordelen, vooral als die evaluaties niet beschikbaar zijn voor externe toetsing.

Wat dit betekent

De trend betekent dat AI-gezondheidsadvies steeds toegankelijker wordt voor consumenten en werknemers. Voor zorgondernemers verandert het speelveld: patiënten komen mogelijk al met AI-gegenereerde inzichten of vragen binnen. Het betekent ook dat de concurrentie niet langer alleen uit andere zorginstellingen komt, maar ook uit grote techplatforms. Voor werkgevers die investeren in vitaliteitsprogramma’s of bedrijfsgezondheidszorg, bieden deze tools potentieel nieuwe, schaalbare manieren om werknemers te ondersteunen. De waarschuwing van experts over het gebrek aan onafhankelijk bewijs betekent echter dat het implementeren van dergelijke tools risico’s met zich meebrengt op het gebied van aansprakelijkheid, kwaliteit van advies en dataprivacy. Het vertrouwen van gebruikers kan snel geschaad worden als een tool onjuist of onveilig advies geeft.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van jouw specifieke situatie en sector. Hier zijn enkele overwegingen en mogelijke routes om te verkennen.

Als je een zorginstelling of praktijk runt… kun je deze trend niet negeren. Patiënten zullen deze tools gaan gebruiken. Een mogelijke aanpak is om je hierop voor te bereiden door het gesprek aan te gaan. Je zou bijvoorbeeld kunnen overwegen om in je intake of consulten expliciet te vragen of patiënten AI-tools hebben geraadpleegd, om hun bevindingen te kunnen bespreken en in de juiste context te plaatsen. Dit positioneert je niet als tegenstander, maar als een betrouwbare gids in een complex landschap.

Als je een werkgever bent die investeert in vitaliteit… dan bieden deze chatbots een potentieel laagdrempelige aanvulling op bestaande programma’s. Een optie is om zeer voorzichtig te experimenteren, bijvoorbeeld door een pilot met een kleine groep geïnteresseerde werknemers. Cruciaal is dan wel om transparant te zijn over de beperkingen: benadruk dat het om algemene informatie gaat, geen medische diagnose vervangt, en dat de effectiviteit niet onafhankelijk is geverifieerd. Koppel het gebruik altijd aan de mogelijkheid om door te verwijzen naar een menselijke professional.

Als je een software-ontwikkelaar bent in de zorgsector… ligt hier een belangrijke rol. In plaats van zelf een chatbot te bouwen, zou je kunnen focussen op integratie en context. Hoe kan jouw bestaande patiëntportaal of gezondheidsapp veilig omgaan met data die een patiënt uit een AI-chatbot haalt? Het ontwikkelen van functies die AI-advies kunnen loggen, beoordelen op consistentie met het medisch dossier, of veilig kunnen archiveren voor de behandelend arts, zou een waardevolle niche kunnen zijn.

Als je een verzekeraar of arbodienst bent… is de vraag hoe je omgaat met advies dat via deze kanalen wordt gegenereerd. Je zou beleid kunnen ontwikkelen over de erkenning (of niet) van dergelijke adviezen in claims- of re-integratietrajecten. Tegelijkertijd biedt het een kans om educatieve content te ontwikkelen die werknemers en werkgevers helpt om op een geïnformeerde en kritische manier met deze nieuwe tools om te gaan, waarbij je je eigen expertise als betrouwbare partij benadrukt.

Bron: Technologyreview