OpenAI gebruikt intern een methode genaamd ‘chain-of-thought monitoring’ om te controleren of AI-agents die code schrijven, nog wel doen wat ze moeten doen. Het is een manier om te zien of de AI afwijkt van de bedoeling, bijvoorbeeld door onveilige code voor te stellen of buiten zijn opdracht te treden. Voor een ondernemer is dit principe vertaalbaar naar het dagelijks gebruik van AI-tools: je kunt zelf eenvoudige checks invoeren om te zien of de output van je AI nog klopt en veilig is.

Chain-of-thought monitoring betekent in de praktijk dat je niet alleen naar het eindresultaat van een AI kijkt, maar ook naar de tussenstappen in zijn redenering. OpenAI doet dit bij geautomatiseerde codeer-assistenten om risico’s vroegtijdig te signaleren. Voor jou betekent dit dat je, wanneer je een AI-tool gebruikt voor bijvoorbeeld het schrijven van content, het opstellen van voorwaarden of het analyseren van data, niet blindelings het eindantwoord aanneemt. Je zou kunnen proberen te begrijpen hoe de AI tot dat antwoord komt, door het te vragen zijn redenering uit te leggen of door de opdracht in kleinere stappen op te splitsen.

Het doel van deze monitoring is volgens OpenAI het versterken van veiligheidsmaatregelen door te leren van echte inzet. Het gaat om het detecteren van ‘misalignment’, oftewel het moment waarop de output van de AI niet meer overeenkomt met de menselijke intentie of veiligheidsnormen. Dit is een actief onderzoeksgebied. Voor een bedrijf is de les dat vertrouwen in AI belangrijk is, maar dat controle nodig blijft. Het is niet alleen een kwestie van de juiste prompt invoeren, maar ook van het systematisch evalueren van de antwoorden die je terugkrijgt.

Hoe kun je dit vandaag toepassen?

Een mogelijkheid is om bij kritieke taken, zoals het opstellen van een juridische clausule of een financiële berekening, de AI te vragen zijn werkwijze stap voor stap uit te leggen in plaats van alleen het eindantwoord te geven. Je zou ook kunnen beginnen met het testen van AI-tools op kleinere, minder risicovolle taken en de output grondig te controleren voordat je ze voor belangrijkere zaken inzet. De praktische toepassing hangt verder af van jouw specifieke situatie en de tools die je gebruikt.

De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.

Bron: Openai