Het Britse AI Security Institute heeft onafhankelijk getest hoe gevaarlijk geavanceerde AI-modellen zijn voor cybersecurity. De resultaten laten zien dat modellen zoals Anthropic’s Mythos Preview steeds beter worden in het uitvoeren van complexe, meerstaps cyberaanvallen, wat een reëel risico vormt. Tegelijkertijd biedt dezelfde technologie kansen voor verdediging.

Wat er aan de hand is

Het Britse AI Security Institute (AISI) heeft een eerste onafhankelijke evaluatie gepubliceerd van het Mythos Preview-model van Anthropic. Dit model werd door het bedrijf zelf aangeprezen als “opvallend bekwaam in computerbeveiligingstaken”. De AISI test al sinds begin 2023 verschillende AI-modellen met speciale ‘Capture the Flag’-uitdagingen, waarbij een AI een reeks beveiligingstaken moet voltooien. Waar GPT-3.5 Turbo in 2023 nog geen enkele van de laagste ‘Apprentice’-taken kon afronden, kan Mythos Preview nu meer dan 85 procent van diezelfde taken succesvol uitvoeren. Het instituut concludeert dat Mythos niet significant beter is dan andere recente topmodellen in individuele taken, maar wel onderscheidend kan zijn in zijn vermogen om deze taken effectief aan elkaar te koppelen tot de meerstaps aanvallen die nodig zijn om systemen volledig binnen te dringen.

Wat dit betekent

Dit onderzoek scheidt de hype van de reële dreiging. Het betekent niet dat er plotseling een onstuitbare AI-hacker is ontstaan, maar wel dat de technologische vooruitgang een kantelpunt nadert waarop geautomatiseerde, complexe aanvallen mogelijk worden. Voor ondernemers en professionals betekent dit concreet dat de dreigingslandschap verandert. Waar je voorheen vooral waakzaam moest zijn voor gerichte, menselijke aanvallen of simpele geautomatiseerde scripts, komt er nu een derde categorie bij: aanvallen die door een AI worden georkestreerd. Deze kunnen zich mogelijk aanpassen aan verdedigingen en verschillende aanvalsvectoren combineren. Het goede nieuws uit het onderzoek is dat deze capaciteit (nog) niet uniek is voor één model; het is een trend die bij meerdere ‘frontier’-modellen zichtbaar is. Dit maakt de ontwikkeling voorspelbaarder en geeft tijd om verdedigingsstrategieën aan te passen.

Hoe je dit kunt toepassen

De praktische toepassing hangt af van jouw situatie. Het onderzoek benadrukt vooral het belang van een robuuste basis en het begrijpen van de nieuwe risicodynamiek.

Als je een klein of middelgroot bedrijf runt zonder een dedicated IT-beveiligingsteam, is de eerste stap bewustwording. Het risico is niet dat een superintelligente AI specifiek jouw bedrijf uitkiest, maar dat geautomatiseerde tools breder en goedkoper ingezet kunnen worden. Overweeg om je basisbeveiliging te herzien: zijn alle systemen up-to-date, gebruik je multifactorauthenticatie waar mogelijk, en zijn back-ups getest en offline opgeslagen? Deze fundamenten beschermen tegen zowel oude als nieuwe dreigingen.

Als je verantwoordelijk bent voor digitale diensten of een webshop, betekent dit dat je monitoring moet versterken. Een AI-gestuurde aanval kan zich anders gedragen dan een menselijke. Je zou kunnen investeren in monitoringtools die niet alleen op bekende patronen letten, maar ook afwijkend gedrag detecteren, zoals vreemde combinaties van acties op korte tijd of pogingen om via meerdere zwakke punten tegelijk binnen te komen.

Als je in een sector werkt met gevoelige data (zoals zorg, advocatuur of financiën), is het verstandig om de menselijke factor te versterken. AI-modellen zijn goed in het vinden van technische kwetsbaarheden, maar social engineering (bijvoorbeeld via geavanceerde phishing) wordt ook krachtiger. Overweeg om regelmatig security awareness trainingen te geven die specifiek ingaan op het herkennen van geavanceerde, gepersonaliseerde phishingpogingen die mogelijk door AI gegenereerd zijn.

Als je zelf AI-tools gebruikt of ontwikkelt, biedt dit onderzoek een kans. Dezelfde technologie die gebruikt kan worden voor aanvallen, is immers ook inzetbaar voor verdediging. Je zou kunnen experimenteren met hoe AI-tools jou kunnen helpen bij het automatisch scannen op kwetsbaarheden, het analyseren van logbestanden op verdachte patronen, of het simuleren van aanvallen om je verdediging te testen. De kern is proactief gebruik van de technologie, in plaats van alleen reactief te zijn op de dreiging.

Bron: Arstechnica