Het groeiende vermogen van kunstmatige intelligentie om kwetsbaarheden in software en systemen op te sporen, vormt een nieuw en direct risico voor bedrijfsprocessen. Dit blijkt uit de ‘Glasswing’-studie van AI-bedrijf Anthropic, die aantoont dat geavanceerde AI-modellen niet alleen kunnen helpen bij beveiliging, maar ook zelf kwetsbaarheden kunnen identificeren en mogelijk misbruiken. Voor ondernemers betekent dit dat de invoering van AI-tools een dubbele security-check vereist: beveilig de tool zelf, maar wees ook alert op de nieuwe zwakke plekken die de tool kan blootleggen.

Wat er aan de hand is

AI-onderzoekslab Anthropic heeft een studie gepubliceerd onder de naam ‘Glasswing’. Het onderzoek richt zich op het vermogen van geavanceerde AI-modellen, zoals grote taalmodellen (LLM’s), om kwetsbaarheden in code en systemen te vinden. De kernbevinding is dat deze AI’s steeds beter worden in het identificeren van beveiligingslekken die menselijke experts mogelijk over het hoofd zien. Dit gebeurt in een bredere trend waarbij AI steeds vaker wordt ingezet voor ‘offensieve security’ – het proactief zoeken naar gaten in de verdediging. De studie arriveert te midden van groeiende zorgen in de tech-industrie over het dual-use karakter van AI: dezelfde technologie die gebruikt kan worden om systemen te beschermen, kan ook worden ingezet om ze aan te vallen.

Wat dit betekent

Voor Nederlandse ondernemers en MKB’ers verandert het security-spel. Waar beveiliging voorheen vooral draaide om het beschermen tegen externe, vaak menselijke aanvallers, komt er nu een nieuwe laag bij: het risico dat de AI-tools die je in huis haalt of gebruikt, zelf een vector worden voor aanvallen. Dit is met name relevant voor bedrijven die AI integreren in gevoelige processen, zoals klantenservice-robots die toegang hebben tot klantdossiers, geautomatiseerde financiële analysesystemen, of AI-gestuurde supply chain-software. De studie benadrukt een paradox: hoe krachtiger en slimmer de AI die je inzet voor efficiëntie, hoe groter het potentiële risico als deze technologie in verkeerde handen valt of zelf geëxploiteerd wordt. Het betekent dat een risicoanalyse voor de invoering van een nieuwe AI-tool niet meer alleen gaat over de kosten en baten, maar ook over het nieuwe aanvalsoppervlak dat je creëert.

Hoe je dit kunt toepassen

De praktische aanpak hangt af van hoe en waar je AI inzet. De kern is om bij elke nieuwe AI-implementatie twee vragen te stellen: “Hoe beveilig ik deze tool?” en “Tegen welke nieuwe kwetsbaarheden die deze tool kan blootleggen, moet ik mijn bedrijf wapenen?”

Als je een AI-chatbot gebruikt voor klantenservice… Deze bot heeft vaak toegang tot een kennisbank, orderhistorie of persoonlijke klantgegevens. Een kwetsbaarheid in de code van de bot of in de manier waarop hij verbinding maakt met je databases, kan door een geavanceerde AI-aanval worden gevonden en misbruikt. Je zou kunnen overwegen om de toegangsrechten van de bot strikt te beperken tot alleen de data die absoluut nodig is voor een gesprek (het ‘principle of least privilege’). Laat daarnaast periodiek een penetratietest uitvoeren die specifiek kijkt naar de interactie tussen je AI-tool en je backend-systemen.

Als je AI gebruikt voor het analyseren van financiële data of forecasts… De modellen en scripts die je gebruikt, evenals de data-pipelines, vormen een waardevol doelwit. Een mogelijkheid is om gevoelige trainingsdata en algoritmes te isoleren in een afgeschermde omgeving (een ‘sandbox’) die geen directe verbinding heeft met je live financiële systemen. Overweeg ook om de output van AI-analyses altijd door een menselijke controller te laten valideren voordat er actie op wordt ondernomen, als extra beveiligingslaag.

Als je ontwikkelaars AI-coding assistants zoals GitHub Copilot gebruikt… Deze tools helpen bij het schrijven van code, maar kunnen, zoals de Glasswing-studie suggereert, ook patronen herkennen die leiden naar onveilige code of kwetsbaarheden in bestaande codebases. Een concrete stap is om het gebruik van gegenereerde code verplicht te onderwerpen aan een security-review met gespecialiseerde tools (SAST/SCA) voordat deze in productie gaat. Zorg er ook voor dat je ontwikkelteams bewust zijn van dit risico en train hen in secure coding practices, óók wanneer ze met AI-assistenties werken.

Als je overweegt een nieuw AI-platform in te kopen… Stel security nu expliciet op de agenda tijdens de selectie. Vraag de leverancier naar hun benadering van de risico’s die in de Glasswing-studie worden genoemd. Vraag naar onafhankelijke security-audits, hun patch-beleid bij gevonden kwetsbaarheden, en de mogelijkheden om toegang en rechten binnen hun platform granular in te stellen. Laat je niet afschepen met vage garanties; maak security een harde voorwaarde in je contract.

Bron: Aibusiness