Een nieuwe onderzoeksmethode maakt het voor bestaande computermodellen praktischer om in begrijpelijke taal uit te leggen waarom ze tot een bepaalde conclusie komen. Dit is vooral relevant in sectoren waar vertrouwen en controle cruciaal zijn, zoals de medische diagnostiek, financiële risicoanalyse of kwaliteitscontrole in de industrie. De techniek, ontwikkeld door onderzoekers van MIT en de Polytechnische Universiteit van Milaan, pakt een belangrijk knelpunt aan bij zogenaamde ‘concept bottleneck’-modellen.
Traditioneel werken zulke modellen met vooraf door experts gedefinieerde concepten. Een AI die huidkanker moet herkennen, krijgt dan bijvoorbeeld de opdracht om te zoeken naar “geclusterde bruine stippen” of “gevlekte pigmentatie”. Het probleem is dat deze vooraf bedachte concepten soms niet precies genoeg zijn of niet aansluiten bij wat het model zelf heeft geleerd, wat de nauwkeurigheid kan verminderen.
Automatisch de juiste concepten vinden
De nieuwe aanpak lost dit op door het model niet te forceren met externe concepten te werken, maar door de kennis die het model al in zich heeft tijdens zijn training automatisch te extraheren en te vertalen. Het gebruikt hiervoor een paar gespecialiseerde machine learning-modellen die als het ware de gedachten van het oorspronkelijke computervisie-model lezen. Deze modellen distilleren de interne patronen van het AI-systeem naar een set van begrijpelijke concepten die het vervolgens moet gebruiken voor zijn voorspellingen.
Volgens de onderzoekers leidt dit tot betere nauwkeurigheid en duidelijkere, bondigere uitleg dan bij standaard methodes. Het belangrijkste praktische voordeel is dat hun techniek in principe elk reeds getraind computervisie-model kan omvormen tot een model dat zijn redenering met concepten kan uitleggen. Dit vergroot de transparantie van anders vaak ondoorgrondelijke ‘black-box’ AI-systemen.
Hoe kun je dit vandaag toepassen?
Deze ontwikkeling richt zich op de onderliggende techniek van AI-modellen en is niet direct een kant-en-klare tool die je morgen kunt downloaden. Het signaal voor ondernemers en professionals is echter duidelijk: de vraag naar uitlegbare AI groeit, vooral in gereguleerde of risicovolle omgevingen. Wanneer je AI overweegt voor kritische beslissingen, is het verstandig om nu al na te denken over hoe je transparantie en verantwoording inbouwt.
Als je in de gezondheidszorg werkt met beelddiagnostiek, zoals het analyseren van röntgenfoto’s of scans, zou je bij leveranciers van AI-software kunnen navragen of hun modellen gebruikmaken van technieken voor uitlegbaarheid, zoals concept bottleneck-modellen. Het vermogen van een systeem om aan te geven op welke visuele kenmerken het zijn bevindingen baseert, kan het vertrouwen van specialisten vergroten.
Als je in de financiële sector automatische risicoscores of fraudedetectie gebruikt, is een model dat zijn redenering kan uitleggen niet alleen handig voor interne controle, maar kan het ook helpen voldoen aan compliance-eisen zoals die van de AFM. Je zou in gesprek kunnen gaan met je data science-team of externe leverancier over hoe zij de transparantie van hun voorspellende modellen waarborgen.
Als je in de maakindustrie kwaliteitscontrole automatiseert met computervisie, bijvoorbeeld voor het spotten van productdefecten, kan een uitlegbare AI helpen bij het verbeteren van het proces. Als het model kan aangeven dat het een fout classificeert vanwege een “onregelmatige textuur” of een “afwijkende contour”, geeft dat ingenieurs direct aanknopingspunten voor verbetering in de productielijn.
Als je als juridisch professional of compliance officer te maken krijgt met AI-gedreven besluitvorming, is het begrijpen van het ‘waarom’ essentieel. Je zou in contracten met AI-leveranciers kunnen opnemen dat er eisen zijn aan de auditability en uitlegbaarheid van de gebruikte modellen, om zo toekomstige verantwoordingslast te beperken.
De kern is dat uitlegbare AI geen abstract academisch idee meer is, maar een praktische eis aan het worden. Door je nu te verdiepen in de mogelijkheden en hierover het gesprek aan te gaan binnen je organisatie of met leveranciers, kun je voorbereid zijn op een toekomst waarin AI niet alleen slim, maar ook begrijpelijk moet zijn.
Bron: MIT News