Het antwoord is dat de opkomst van AI een beveiligingsparadox introduceert: dezelfde technologie die kwetsbaarheden kan opsporen, kan ook worden gebruikt om nieuwe, complexere aanvallen te creëren. Dit betekent dat ondernemers niet kunnen vertrouwen op oude beveiligingsmethoden en hun aanpak fundamenteel moeten herzien, met focus op de menselijke factor en nieuwe soorten risico’s.

Wat er aan de hand is

Anthropic, het bedrijf achter de AI Claude, heeft een nieuw onderzoeksinitiatief gelanceerd genaamd ‘Glasswing’. Dit project richt zich specifiek op het begrijpen en verdedigen tegen AI-gestuurde cyberaanvallen. De aankondiging komt volgens AI Business op een moment van groeiende bezorgdheid over het vermogen van AI om zelf kwetsbaarheden in software en systemen te identificeren. Dit markeert een bredere verschuiving in de beveiligingswereld: van reactief verdedigen naar proactief anticiperen op aanvallen die worden uitgevoerd en mogelijk zelfs bedacht door kunstmatige intelligentie. Het initiatief benadrukt dat de beveiligingsuitdaging niet langer alleen draait om het dichten van gaten, maar om het begrijpen van een tegenstander die zelf ook AI gebruikt.

Wat dit betekent

De impact is dubbel. Enerzijds krijgen beveiligingsteams krachtigere tools in handen om hun systemen te scannen en te beschermen. Anderzijds krijgen aanvallers toegang tot dezelfde of soortgelijke technologie, wat kan leiden tot geautomatiseerde, snellere en meer geraffineerde aanvallen. Voor ondernemers, met name in het MKB dat vaak beperkte IT-capaciteit heeft, betekent dit dat de dreigingslandschap complexer wordt. Het traditionele idee van een firewall en antivirussoftware als voldoende bescherming is verouderd. De risico’s verschuiven van brute-force aanvallen naar sociale manipulatie (bijvoorbeeld via hyperrealistische phishing-mails gegenereerd door AI), het automatisch vinden van kwetsbaarheden in zelfgemaakte software, en het misbruiken van bedrijfsdata die in AI-tools zijn ingevoerd. Beveiliging wordt een continu proces in plaats van een eenmalige installatie.

Hoe je dit kunt toepassen

De praktische aanpak begint met het erkennen dat AI zowel een verdedigingswapen als een aanvalsvector is. Je strategie moet beide kanten adresseren.

Als je gebruikmaakt van AI-tools zoals ChatGPT of Claude voor je bedrijf… wees uiterst voorzichtig met welke bedrijfsinformatie je invoert. Behandel prompts die gevoelige data bevatten als vertrouwelijk. Stel duidelijke richtlijnen op voor het team over wat wel en niet gedeeld mag worden met publieke AI-tools om datalekken te voorkomen.

Als je een website, webshop of eigen software applicatie beheert… realiseer je dat traditionele, handmatige penetratietests mogelijk niet meer volstaan. Overweeg om in je beveiligingsbudget ook ruimte te maken voor tools of diensten die gebruikmaken van AI om kwetsbaarheden te scannen. De tegenpartij gebruikt deze technologie namelijk ook.

Als je verantwoordelijk bent voor teamcommunicatie en training… pas je phishing-trainingen aan. Leg uit dat AI nu overtuigende, foutloze e-mails en berichten in de juiste toonzetting kan genereren. Train medewerkers om niet alleen op taalfouten te letten, maar op de urgentie van het verzoek en de legitimiteit van de afzender, ongeacht hoe professioneel het bericht eruitziet.

Als je bedrijfsprocessen automatiseert met AI… bouw beveiliging in vanaf het ontwerp (security by design). Vraag je voor elke geautomatiseerde actie af: wat als dit systeem wordt gemanipuleerd? Stel limieten in voor wat een AI-agent mag doen zonder menselijke goedkeuring, vooral bij financiële transacties of het versturen van communicatie.

De kern is een mentaliteitsverandering: zie AI niet alleen als een productiviteitstool, maar ook als een nieuwe laag in je risicomanagement. Begin met bewustwording, evalueer waar je het meest kwetsbaar bent voor geautomatiseerde aanvallen, en versterk daar je verdediging.

Bron: AI Business