Je zet een AI-chatbot in om klanten te helpen, in de veronderstelling dat iedereen er gelijk van profiteert. Nieuw onderzoek van MIT toont een verontrustend patroon: de meest geavanceerde chatbots, zoals GPT-4, Claude 3 Opus en Llama 3, geven systematisch minder accurate en minder waarheidsgetrouwe antwoorden aan gebruikers die worden gepresenteerd als niet-Engelstalig, lager opgeleid of afkomstig van buiten de Verenigde Staten. Voor deze groep weigeren de modellen ook vaker een antwoord te geven en gebruiken soms neerbuigende taal. Dit ondermijnt het democratiserende ideaal van AI en vormt een direct risico voor ondernemers die deze tools inzetten voor klantcontact.
Waarom dit gebeurt
De onderzoekers testten de modellen met vragen uit wetenschappelijke en feitelijke testdatasets. Aan elke vraag koppelden ze een korte gebruikersbeschrijving die varieerde in opleidingsniveau, Engelse taalvaardigheid en land van herkomst. De resultaten waren consistent: de prestaties van de AI daalden significant wanneer de vraag afkomstig leek van een gebruiker met een lagere formele opleiding of een niet-moedertaalspreker van het Engels. De modellen zijn getraind op enorme hoeveelheden tekst, vaak van het internet, waarin bepaalde perspectieven en kennisniveaus oververtegenwoordigd zijn. Ze leren daardoor onbewust patronen die deze ongelijkheid in stand houden of zelfs versterken.
De praktische risico’s voor je bedrijf
Als ondernemer betekent dit dat je klantenservice of interne kennisbank mogelijk onbetrouwbaarder is voor een deel van je doelgroep. Een klant die moeite heeft met formuleren of een andere achtergrond heeft, kan een onjuist antwoord krijgen op een vraag over je product, de garantievoorwaarden of een veiligheidsinstructie. Dit leidt niet alleen tot frustratie, maar kan ook tot aansprakelijkheid of reputatieschade leiden. Het onderzoek suggereert dat het probleem niet beperkt is tot obscure modellen, maar juist bij de topmodellen het sterkst naar voren komt.
Hoe kun je dit vandaag toepassen?
Test je AI-chatbot of -assistent niet alleen met perfect geformuleerde vragen, maar ook met eenvoudiger, minder gestructureerd taalgebruik dat je doelgroep mogelijk gebruikt. Let daarbij specifiek op de nauwkeurigheid van de antwoorden. Overweeg om in je prompts expliciet instructies op te nemen die de chatbot vragen om eenvoudig, duidelijk en respectvol taalgebruik voor alle gebruikers, ongeacht hun formulering. Dit is geen garantie, maar een eerste stap om bewustwording om te zetten in actie.
Bron: MIT News