Als je een AI-model inzet voor belangrijke beslissingen, wil je weten hoe het tot die conclusie komt. Onderzoekers van MIT hebben een methode ontwikkeld die AI-modellen dwingt om hun voorspellingen uit te leggen met behulp van voor mensen begrijpelijke concepten. Dit is cruciaal in sectoren waar vertrouwen en controle niet onderhandelbaar zijn, zoals medische diagnostiek of financiële compliance.
De traditionele aanpak, ‘concept bottleneck modeling’, werkt met concepten die vooraf door experts zijn gedefinieerd. Een arts zou bijvoorbeeld termen als ‘geclusterde bruine vlekken’ kunnen opgeven om een AI te helpen bij het herkennen van melanoom. Het probleem is dat deze vooraf bedachte concepten soms niet precies genoeg zijn of niet aansluiten bij wat het model daadwerkelijk heeft geleerd. Dit kan de nauwkeurigheid verminderen en de uitleg minder relevant maken.
De nieuwe methode pakt dit aan door het model zelf te vragen welke concepten het heeft geleerd tijdens zijn training. Het gebruikt een paar gespecialiseerde machine learning-modellen om deze kennis uit een bestaand AI-model te halen en te vertalen naar duidelijke, natuurlijke taal. Het resultaat is dat vrijwel elk getraind computervisie-model kan worden omgezet in een model dat zijn redenering kan uitleggen. Volgens de onderzoekers leidt het gebruik van deze zelf-geleerde concepten tot betere nauwkeurigheid en duidelijkere, bondigere uitleg. Dit verhoogt uiteindelijk de verantwoording van zogenaamde ‘black-box’ AI-modellen.
Waarom dit belangrijk is voor ondernemers
Voor ondernemers die AI overwegen voor kritieke processen, gaat dit verder dan alleen technische vooruitgang. Het gaat om risicomanagement en acceptatie. Een model dat kan uitleggen waarom het een bepaalde klant als risicovol classificeert, een medische afwijking ziet of een contractclausule markeert, is niet alleen transparanter. Het stelt jou en je team in staat om de uitkomst te controleren, te valideren en er vertrouwen in te hebben. Dit vermindert de afhankelijkheid van een ondoorzichtig systeem en maakt samenwerking tussen mens en machine mogelijk. In een tijdperk van toenemende regelgeving rond AI, kan het vermogen om beslissingen te verklaren ook een compliance-voordeel zijn.
Hoe kun je dit vandaag toepassen?
De specifieke MIT-methode is nog onderzoekswerk, maar het principe van uitlegbare AI is nu al relevant voor je keuzes. Wanneer je een AI-tool evalueert voor een belangrijke taak, kun je de leverancier vragen stellen over hoe het model tot zijn conclusies komt.
Als je software overweegt voor het screenen van sollicitanten of het analyseren van klantfeedback, vraag dan aan de leverancier of het systeem inzicht kan geven in de belangrijkste factoren achter een score. Krijg je alleen een cijfer, of ook een lijst met de bepalende woorden of patronen? Een tool die dat laatste biedt, sluit aan bij het idee van uitlegbare concepten.
Als je in de zorgsector werkt en AI-ondersteunde beeldanalyse evalueert, is transparantie niet optioneel. Je zou kunnen navragen of de diagnostische software zijn bevindingen kan koppelen aan visuele kenmerken die een radioloog herkent, zoals ‘onregelmatige rand’ of ‘verhoogde dichtheid’. Dit maakt de AI een controleerbare tweede mening in plaats van een black box.
Als je een financiële dienstverlener bent en AI gebruikt voor fraudedetectie, dan is een verklaring cruciaal. Een mogelijke stap is om te kiezen voor systemen die niet alleen een waarschuwing geven, maar ook de specifieke transactiepatronen of afwijkingen benoemen die de alert hebben veroorzaakt. Dit stelt je compliance-team in staat om gericht onderzoek te doen.
Als je een AI-model laat trainen op je eigen bedrijfsdata, bijvoorbeeld voor voorspellend onderhoud of kwaliteitscontrole, overweeg dan om uitlegbaarheid vanaf het begin als eis mee te nemen in het project. Vraag je datawetenschappers of het mogelijk is om het model zó te bouwen dat het zijn voorspellingen koppelt aan meetbare, begrijpelijke signalen uit de data, zoals ’trillingsfrequentie boven X Hz’ of ‘afwijking in kleurconsistentie’.
De kern is dat je bij de aanschaf of ontwikkeling van AI voor serieuze toepassingen het vermogen om te verklaren meeneemt in je afweging. Het stelt je in staat om de technologie te gebruiken met behoud van controle en inzicht, wat essentieel is voor vertrouwen en verantwoording.
Bron: MIT News