De nieuwe AI-gezondheidschatbots van Microsoft, Amazon en OpenAI kunnen een aanvulling zijn op bestaande zorg, maar ondernemers moeten zich bewust zijn van het gebrek aan onafhankelijke, externe evaluatie voordat ze deze tools inzetten voor hun personeel of klanten.
Wat er aan de hand is
Grote techbedrijven rollen in hoog tempo AI-gezondheidschatbots uit voor het grote publiek. Microsoft lanceerde Copilot Health, een ruimte in zijn Copilot-app waar gebruikers medische gegevens kunnen koppelen en gezondheidsvragen kunnen stellen. Amazon maakte zijn Health AI-tool, voorheen exclusief voor One Medical-leden, nu breed beschikbaar. Deze producten sluiten zich aan bij ChatGPT Health van OpenAI en de mogelijkheden van Anthropic’s Claude om met toestemming gezondheidsdossiers te lezen. Volgens het artikel in Technology Review is er een duidelijke vraag naar dit soort chatbots, omdat toegang tot medisch advies via bestaande systemen voor veel mensen moeilijk is. Bedrijven zoals Microsoft wijzen op de enorme vooruitgang in de mogelijkheden van generatieve AI om gezondheidsvragen te beantwoorden en de grote vraag vanuit gebruikers als reden voor de lancering. Onderzoekers erkennen dat huidige grote taalmodellen veilige en nuttige aanbevelingen kunnen doen, maar benadrukken dat deze tools rigoureuzer moeten worden geëvalueerd door onafhankelijke experts, bij voorkeur vóór brede uitrol.
Wat dit betekent
Voor ondernemers, met name in de zorgsector, wellness, HR of bedrijven die gezondheidsprogramma’s aanbieden, betekent deze trend twee dingen. Enerzijds komen er krachtige, potentieel toegankelijke tools beschikbaar die diensten kunnen aanvullen of processen kunnen stroomlijnen. Anderzijds brengt de snelle commercialisering, zonder uitgebreide onafhankelijke toetsing, risico’s met zich mee op het gebied van aansprakelijkheid, kwaliteit van advies en privacy. Het vertrouwen op de eigen evaluaties van techbedrijven in een hoog-risicodomein als gezondheid kan onverstandig zijn, vooral als die evaluaties niet openbaar zijn voor externe review. Zelfs bedrijven die kwalitatief onderzoek doen, kunnen blinde vlekken hebben die de bredere onderzoeksgemeenschap zou kunnen opvullen. Voor werkgevers die bijvoorbeeld een vitaliteitsprogramma overwegen, verandert het landschap van digitale gezondheidstools snel, maar de onderbouwing voor veilig en effectief gebruik blijft vaak onduidelijk.
Hoe je dit kunt toepassen
De praktische toepassing hangt sterk af van jouw specifieke situatie, sector en de mate waarin gezondheidsadvies een rol speelt in je dienstverlening of personeelsbeleid. Het is cruciaal om je te realiseren dat deze tools, ondanks hun beloften, (nog) geen gecertificeerde medische apparaten of gediplomeerde zorgverleners zijn. Overweeg de volgende benaderingen, afhankelijk van je positie:
Als je een ondernemer bent in de zorg of welzijnssector, zoals een fysiotherapiepraktijk, diëtist of mental coach, dan kun je deze ontwikkelingen volgen als mogelijke ondersteunende technologie. Een mogelijkheid is om te onderzoeken of een tool zoals ChatGPT Health of Copilot Health op een gecontroleerde manier kan worden gebruikt voor het beantwoorden van algemene, niet-dringende vragen van cliënten buiten kantooruren, altijd met de duidelijke disclaimer dat het geen medisch advies vervangt. De kern blijft het persoonlijke consult.
Als je een HR-manager of werkgever bent die het welzijn van personeel wil bevorderen, zou je kunnen kijken naar deze tools als een potentieel onderdeel van een breder vitaliteitspakket. Je zou bijvoorbeeld kunnen overwegen om een pilot te starten waarbij je medewerkers informeert over het bestaan van deze algemene gezondheidschatbots, gekoppeld aan een training over hun beperkingen. Belangrijk is om te benadrukken dat ze geen vervanging zijn voor het bedrijfsartsconsult of de huisarts, maar mogelijk wel eerste informatie kunnen bieden.
Als je een software-ontwikkelaar of consultant bent voor de zorgsector, betekent deze trend dat er vraag kan komen naar diensten rondom integratie, advies en onafhankelijke evaluatie. Je zou kunnen nadenken over het aanbieden van diensten om bestaande zorgsystemen veilig te laten communiceren met deze AI-API’s, of om klanten te helpen bij het opstellen van protocollen voor het gebruik ervan, met focus op compliance en risicobeperking.
In alle gevallen is het verstandig om het gebrek aan onafhankelijk bewijs, zoals genoemd in het artikel, serieus te nemen. Wacht waar mogelijk op robuustere, externe validatiestudies voordat je deze tools centraal inzet in je bedrijfsvoering of dienstverlening.
Bron: Technologyreview