De nieuwe AI ‘Mythos’ van Anthropic is volgens onafhankelijke Britse tests niet per se beter in losse hacktaken, maar wel gevaarlijker omdat hij verschillende stappen van een cyberaanval zelfstandig kan combineren en uitvoeren. Dit betekent dat geautomatiseerde, complexe aanvallen op bedrijfssystemen nu een reëler risico worden.

Wat er aan de hand is

Het Britse AI Security Institute (AISI) heeft een eerste onafhankelijke evaluatie gepubliceerd van het nieuwe ‘Mythos Preview’-model van AI-bedrijf Anthropic. Anthropic zelf kondigde het model vorige week aan als “opvallend bekwaam in computerbeveiligingstaken” en beperkte de eerste release tot een selecte groep partners. De Britse overheidsinstantie test AI-modellen sinds begin 2023 met speciaal ontworpen ‘Capture the Flag’-cybersecurity-uitdagingen. Waar GPT-3.5 Turbo toen nog geen enkele van de relatief eenvoudige ‘Apprentice’-taken kon voltooien, kan Mythos Preview nu meer dan 85 procent van diezelfde taken succesvol afronden. Het belangrijkste verschil met eerdere modellen is volgens de AISI niet de prestaties op individuele taken, maar de vaardigheid om deze taken effectief aan elkaar te knopen tot een meerstapsaanval die nodig is om systemen volledig binnen te dringen.

Wat dit betekent

Deze ontwikkeling markeert een verschuiving in het AI-risicolandschap voor bedrijven. Het gevaar schuilt niet langer alleen in een AI die een specifiek kwetsbaarheid kan vinden of een phishingmail kan schrijven, maar in een AI die een complete aanvalsketen kan plannen en uitvoeren. Dit maakt geautomatiseerde, doorlopende aanvallen mogelijk die minder menselijke tussenkomst nodig hebben en daardoor schaalbaarder en mogelijk goedkoper worden voor aanvallers. Vooral middelgrote bedrijven die vertrouwen op standaard beveiligingssoftware zonder geavanceerd menselijk toezicht, kunnen kwetsbaarder worden. Het betekent dat de dreiging niet abstract of futuristisch is, maar dat de tools voor geavanceerde aanvallen nu in ontwikkeling zijn en door onafhankelijke partijen worden bevestigd.

Hoe je dit kunt toepassen

De praktische toepassing hangt sterk af van jouw specifieke situatie en de volwassenheid van je cybersecurity. De onafhankelijke bevestiging dat AI geautomatiseerde ketenaanvallen kan uitvoeren, is een signaal om je verdediging te herijken, niet om in paniek te raken.

Als je een klein online bedrijf runt met beperkte IT-kennis, is de eerste stap bewustwording. Een AI die aanvallen kan ketenen, maakt het belangrijker dan ooit om basisprincipes op orde te hebben. Overweeg om je software en systemen consistent up-to-date te houden, sterke, unieke wachtwoorden te gebruiken en waar mogelijk multi-factorauthenticatie in te schakelen. Deze maatregelen vormen nog steeds een stevige barrière tegen geautomatiseerde aanvallen.

Als je een technisch team aanstuurt in een groter MKB-bedrijf, zou je de testresultaten kunnen gebruiken om het gesprek over ‘verdediging in diepte’ te actualiseren. In plaats van te vertrouwen op één verdedigingslinie (zoals een firewall), is het verstandig om lagen van beveiliging te hebben die een aanval moeten stoppen, zelfs als een eerdere laag wordt gepasseerd. Een mogelijkheid is om te evalueren of je monitoringtools ook ongebruikelijke ketens van gebeurtenissen kunnen signaleren, in plaats van alleen geïsoleerde alarms.

Als je verantwoordelijk bent voor risicomanagement of compliance, kan deze informatie input zijn voor een risico-evaluatie. Je zou kunnen overwegen om het potentiële gebruik van geavanceerde AI door aanvallers expliciet op te nemen in je dreigingsmodellen. Dit helpt om investeringen in beveiliging beter te onderbouwen en prioriteiten te stellen, bijvoorbeeld rond het trainen van personeel of het implementeren van geavanceerdere detectiesystemen.

Bron: Arstechnica