Een Australische tech-ondernemer beweerde dat ChatGPT zijn hond van kanker had gered. Het verhaal ging viral als het perfecte voorbeeld van hoe AI de gezondheidszorg zou gaan revolutioneren. De werkelijkheid is, zoals vaker, een stuk complexer. Het incident is een belangrijke casus voor iedereen die AI overweegt in gevoelige domeinen: het laat zien hoe ‘wishful thinking’ en een goed verhaal de plaats kunnen innemen van kritisch denken en professionele expertise.
Het verhaal was te mooi om waar te zijn
Het verhaal, oorspronkelijk gepubliceerd door The Australian, leek helder. Paul Conyngham uit Sydney zou met behulp van ChatGPT een behandelplan hebben samengesteld voor zijn zieke hond Rosie, nadat dierenartsen hadden gezegd dat er niets meer gedaan kon worden. Het verhaal werd opgepikt als een hartverwarmend voorbeeld van hoe toegankelijke AI levens kan redden. Voor de techindustrie was het een validatie waar lang op was gehoopt: tastbaar bewijs dat AI complexe medische problemen kan oplossen. De realiteit is echter dat het verhaal cruciale context miste en dat de rol van de AI sterk werd overdreven.
Waarom dit verhaal zo aansloeg
Dit soort verhalen spreken tot de verbeelding omdat ze twee krachtige verlangens combineren: de hoop op een technologische doorbraak en het verlangen naar een simpele oplossing voor een complex, emotioneel probleem. Het past in het narratief van de ’eenzame uitvinder’ die het systeem verslaat. Voor ondernemers en professionals die dagelijks met de beloftes van AI worden geconfronteerd, is de les dat een aantrekkelijk narratief niet hetzelfde is als bewijs. Het verhaal over de hond functioneerde vooral als een spiegel voor onze eigen hoop en verwachtingen van de technologie, meer dan als een accurate weergave van wat er gebeurde.
De risico’s van AI als vervanging voor expertise
De kern van deze casus is het gevaar van het vervangen van gecertificeerde expertise door AI-output, vooral in domeinen waar levens op het spel staan. De ondernemer in kwestie had geen achtergrond in biologie of geneeskunde. Hoewel het gebruik van een tool als ChatGPT voor het verzamelen van informatie of het genereren van vragen op zich niet verkeerd is, bestaat het risico dat de suggestieve, zelfverzekerde antwoorden van een chatbot worden aangezien voor een gediagnosticeerd behandelplan. Het vertrouwen in AI kan hier ten onrechte het gezond verstand en het advies van professionals overschaduwen.
Hoe kun je dit vandaag toepassen?
De praktische toepassing hangt af van jouw situatie. Via geprompt.nl/stel-je-vraag kun je een vraag stellen die we uitwerken tot een artikel op maat.
De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.
Bron: The Verge