Een Australische ondernemer beweerde dat ChatGPT zijn hond van kanker had gered. Het verhaal ging viral als bewijs dat AI de geneeskunde zou revolutioneren. De werkelijkheid was anders. Het verhaal illustreert een fundamentele valkuil: het onkritisch vertrouwen op AI voor complexe, levensbelangrijke adviezen. Voor ondernemers en professionals is dit een cruciale les in risicomanagement.

Het verhaal, zoals het online circuleerde, was eenvoudig. Paul Conyngham uit Sydney hoorde in 2024 dat zijn hond Rosie kanker had. Chemotherapie vertraagde de ziekte, maar deed de tumoren niet krimpen. Toen dierenartsen aangaven dat er “niets meer gedaan kon worden”, wendde hij zich tot ChatGPT. De chatbot zou een specifiek medicijn hebben voorgesteld dat de dierenarts niet had overwogen. Conyngham kocht het medicijn, gaf het aan zijn hond, en beweerde dat de tumoren verdwenen. Het verhaal werd gepresenteerd als een triomf van AI over de gevestigde medische wetenschap.

De realiteit bleek, zoals vaak, ingewikkelder. Nadat het verhaal breed werd uitgemeten, kwamen er vragen van experts en journalisten. De details klopten niet helemaal. Het gesuggereerde medicijn was geen onbekende, experimentele stof, maar een bestaand middel dat in bepaalde gevallen wordt gebruikt. Belangrijker was dat de claim dat ChatGPT het had “uitgevonden” of “voorgesteld” de complexe werkelijkheid geweld aandeed. De ondernemer had een zeer specifieke en gestuurde prompt-engineering toegepast, waarbij hij de chatbot in feite vroeg om onderzoek te doen naar een medicijn waar hij zelf al van had gehoord. Het was geen spontane, geniale ontdekking van de AI, maar eerder een geavanceerde zoekopdracht.

Het gevaar van het “orakel-effect”

Dit incident toont het “orakel-effect”: de neiging van mensen om outputs van geavanceerde AI, vooral wanneer die gepresenteerd worden met autoriteit, te zien als waarheid in plaats van als een berekende waarschijnlijkheid gebaseerd op trainingsdata. ChatGPT en vergelijkbare grote taalmodellen zijn ontworpen om plausibele, goed geformuleerde antwoorden te genereren. Ze zijn niet ontworpen om waarheid te garanderen, medische diagnoses te stellen of de context van een individueel geval te begrijpen. Ze repliceren en combineren patronen uit de data waarop ze zijn getraind, die onvolledig, verouderd of bevooroordeeld kan zijn.

Voor een ondernemer die gewend is aan snelle, data-gedreven beslissingen, kan de verleiding groot zijn om AI ook voor kritieke, niet-herhaalbare beslissingen in te zetten. Denk aan juridische interpretaties, financiële prognoses voor een eenmalige investering, of personeelsbeslissingen. Het verhaal van de hond is een metafoor voor dat risico. Het vertrouwen op een tool die niet transparant is over de bronnen van zijn informatie en geen verantwoordelijkheid kan afleggen, kan leiden tot kostbare fouten.

AI als assistent, niet als autoriteit

De les is niet dat AI nutteloos is in complexe domeinen. Integendeel, het kan een krachtige assistent zijn voor research, het genereren van vragen of het samenvatten van informatie. Het verschil zit in de rol. In het geval van de hond werd de AI gepromoot tot de primaire diagnostische autoriteit, terwijl de dierenarts werd afgeschilderd als iemand die had opgegeven. Een verstandigere aanpak was geweest om het AI-suggestie te gebruiken als input voor een vervolggesprek met de expert: “Ik kwam dit tegen in mijn research, wat is uw professionele mening hierover?” Dit positioneert de AI als een tool die het gesprek verrijkt, niet als een vervanging voor vakmanschap en ervaring.

Dit principe is direct toepasbaar in het bedrijfsleven. AI kan een eerste concept van een contract opstellen, maar een jurist moet het controleren. Het kan markttrends analyseren, maar een ervaren strateeg moet de conclusies toetsen aan de realiteit. Het kan helpen bij het screenen van CV’s, maar de uiteindelijke selectie vereist menselijk oordeel. Het verhaal van de hond herinnert ons eraan dat de waarde van AI explodeert wanneer het wordt gecombineerd met menselijke expertise en kritisch denken, niet wanneer het die vervangt.

Hoe kun je dit vandaag toepassen?

Het verhaal van de hond met kanker is een krachtige waarschuwing tegen het blind vertrouwen in AI-output. De praktische toepassing is om AI altijd te positioneren als ondersteunende tool, nooit als eindautoriteit. Hier zijn enkele manieren om dat principe in je dagelijkse werk toe te passen.

Als je een complex financieel besluit moet nemen, zoals een grote investering of overname, zou je AI kunnen gebruiken om snel scenario-analyses of samenvattingen van marktrapporten te genereren. Een mogelijke stap is dan om die output te behandelen als een uitgebreide “eerste mening”. Laat je financiële adviseur of accountant vervolgens alle aannames controleren en de conclusies toetsen aan de specifieke details van jouw bedrijf, voordat je tot actie overgaat.

Als je juridische documenten moet opstellen of beoordelen, zoals algemene voorwaarden of een arbeidsovereenkomst, is een optie om een groot taalmodel te vragen een eerste draft te maken op basis van jouw beschrijving. Het cruciale vervolg is dat je deze draft voorlegt aan een jurist met de vraag om deze grondig te reviewen op hiaten, lokale wetgeving en specifieke risico’s voor jouw sector. De AI is de researchassistent, de jurist blijft de autoriteit.

Als je AI gebruikt voor klantenservice of contentcreatie, overweeg dan om duidelijke guardrails in te bouwen. Stel bijvoorbeeld een beleid op dat AI-gegenereerde antwoorden over garantie, retourzendingen of medische claims over producten altijd door een menselijke medewerker moeten worden gecontroleerd voordat ze naar de klant gaan. Dit beperkt het risico op het verspreiden van onjuiste of aansprakelijkheid creërende informatie.

Als je personeelszaken regelt, zoals het screenen van sollicitaties of het opstellen van functioneringsgesprekken, zou je AI kunnen inzetten om patronen te herkennen of neutrale vragenlijsten te genereren. Een concrete toepassing is om de tool een eerste selectie te laten maken op basis van objectieve criteria, maar de uiteindelijke gesprekken en beoordelingen altijd door mensen te laten doen. Dit voorkomt dat onbewuste vooroordelen uit de trainingsdata jouw wervingsproces beïnvloeden.

Als je strategische plannen ontwikkelt op basis van data-analyse, kun je AI-tools gebruiken om grote datasets te doorzoeken en trends te identificeren. De sleutel is om de gevonden correlaties nooit direct als causaliteit te interpreteren. Een praktische stap is om elke AI-gegenereerde inzicht te gebruiken als hypothese, die je vervolgens met je team bespreekt en toetst aan jullie gezamenlijke ervaring en kennis van de markt voordat je erop acteert.

Bron: The Verge