Een internationaal team van wetenschappers, geleid door MIT, waarschuwt voor een fundamenteel risico in de huidige kunstmatige intelligentie. Veel AI-systemen presenteren hun conclusies met een overtuiging die niet altijd gerechtvaardigd is. Dit kan leiden tot kostbare fouten, omdat gebruikers geneigd zijn het ‘orakel’ te volgen, zelfs als hun eigen intuïtie anders zegt. De oplossing die de onderzoekers voorstellen is het ontwikkelen van ‘bescheiden’ AI. Dit zijn systemen die actief kunnen aangeven wanneer ze onzeker zijn over een diagnose of aanbeveling en die de gebruiker aanmoedigen om aanvullende informatie te verzamelen.

Van orakel naar co-pilot

De kern van het voorstel is een verschuiving in hoe we AI zien. In plaats van een onfeilbare autoriteit moet AI functioneren als een coach of een echte co-pilot. “We gebruiken AI nu als een orakel, maar we kunnen AI gebruiken als een coach. We zouden AI kunnen gebruiken als een echte co-pilot. Dat zou niet alleen ons vermogen vergroten om informatie op te halen, maar ook ons vermogen om de puntjes te verbinden,” zegt Leo Anthony Celi, senior onderzoeker bij MIT. Dit partnerschapsmodel voorkomt dat AI een te grote invloed krijgt op de uiteindelijke beslissing van de professional, of dat nu een arts, een adviseur of een ondernemer is.

Het gevaar van overtuigende ongelijk

Het probleem van overmoedige AI is niet alleen theoretisch. Eerdere studies, geciteerd door het MIT-team, tonen aan dat intensive care-artsen geneigd zijn zich neer te leggen bij AI-systemen die ze als betrouwbaar ervaren, zelfs wanneer hun eigen intuïtie ingaat tegen het AI-voorstel. Dit fenomeen is niet beperkt tot de medische wereld. In elke sector waar complexe beslissingen worden genomen op basis van data-analyses, bestaat het risico dat een zelfverzekerd gepresenteerd AI-advies kritisch denken uitschakelt. De autoriteit van de machine wint het dan van het menselijk oordeel, met mogelijk verkeerde uitkomsten tot gevolg.

Een raamwerk voor bescheidenheid

Om dit aan te pakken, hebben de onderzoekers een raamwerk ontwikkeld dat AI-ontwikkelaars kan helpen bij het ontwerpen van systemen die nieuwsgierigheid en bescheidenheid tonen. Hoewel het onderzoek zich richt op de gezondheidszorg, is het principe universeel toepasbaar. Het gaat erom AI-systemen zo te programmeren dat ze niet alleen een antwoord geven, maar ook een indicatie van de betrouwbaarheid van dat antwoord. Dit kan door een onzekerheidsscore te tonen, door alternatieve scenario’s voor te stellen, of door expliciet aan te geven welke aanvullende informatie nodig zou zijn om tot een zekerder oordeel te komen.

Hoe kun je dit vandaag toepassen?

De omslag van AI als orakel naar AI als co-pilot begint bij de keuzes die je maakt als gebruiker en opdrachtgever. Het vraagt om een andere mindset en het stellen van andere vragen aan de tools die je gebruikt of laat ontwikkelen.

Als je een bedrijfsadviseur of financieel planner bent en AI gebruikt voor marktanalyses of risicoscenario’s, zou je kunnen zoeken naar tools die niet alleen een voorspelling doen, maar ook de onderliggende aannames en de mate van onzekerheid visualiseren. In plaats van te vragen “Wat is de beste investering?”, kun je het systeem vragen: “Onder welke voorwaarden is deze investering het meest risicovol, en welke data hebben we nog niet om dat beter in te schatten?”

Als je een eigenaar van een productiebedrijf of logistiek bedrijf bent en AI inzet voor voorspellend onderhoud of routeplanning, is een mogelijke stap om bij leveranciers expliciet te vragen naar de ‘bescheidenheidsfuncties’ van hun systeem. Vraag niet alleen naar de nauwkeurigheid, maar ook naar hoe het systeem omgaat met onzekere of incomplete sensor data. Een goede co-pilot waarschuwt je wanneer zijn voorspelling op drijfzand staat en adviseert een extra inspectie.

Als je een marketeer of contentmaker bent die generative AI gebruikt voor het maken van teksten of campagnes, overweeg dan om het niet als een eindproducent te gebruiken, maar als een brainstormpartner. Gebruik prompts die uitnodigen tot meerdere opties en vraag het model expliciet naar de zwakke punten in zijn eigen voorstellen. Een prompt als “Geef drie verschillende invalshoeken voor deze campagne, en noem bij elk het grootste potentiële risico of misvatting voor de doelgroep” zet de AI in een meer collaboratieve rol.

Als je een ondernemer bent die een custom AI-oplossing laat ontwikkelen, kun je dit raamwerk meenemen in je functionele eisen. Specificeer dat het systeem zijn vertrouwen in uitkomsten moet kunnen kwantificeren en dat het, bij lage betrouwbaarheid, de gebruiker moet attenderen op de noodzaak van menselijke validatie of extra data-invoer. Dit transformeert de tool van een blackbox die antwoorden geeft in een transparante partner die meedenkt.

De verschuiving naar bescheiden AI gaat over het herstellen van de balans. Het doel is niet om AI minder krachtig te maken, maar om het intelligenter in te zetten door zijn beperkingen te erkennen en de unieke kwaliteiten van menselijk oordeel te versterken. Het begint met de vraag: wil je een systeem dat doet alsof het alles weet, of een systeem dat je helpt om slimmer te worden?

Bron: MIT News