Een nieuw AI-model van Anthropic, ontwikkeld in samenwerking met techgiganten, kan automatisch beveiligingslekken in software opsporen. Dit opent de weg naar geautomatiseerde beveiligingsscans die niet langer voorbehouden zijn aan grote ondernemingen, maar ook voor het MKB toegankelijker kunnen worden.
Wat er aan de hand is
Anthropic, het bedrijf achter de AI-assistent Claude, kondigt een nieuw AI-model aan genaamd Claude Mythos Preview. Het model is de kern van ‘Project Glasswing’, een cybersecurity-initiatief dat is opgezet in samenwerking met partners als Nvidia, Google, Amazon Web Services, Apple en Microsoft. Volgens The Verge is het specifiek ontworpen om kwetsbaarheden in softwaresystemen te identificeren met minimale menselijke tussenkomst. Newton Cheng, de cybersecurity-leider bij Anthropic, stelt dat het model in staat was beveiligingsproblemen te vinden “in elk groot besturingssysteem en elke webbrowser” tijdens interne tests. Opvallend is dat Anthropic het model niet direct publiekelijk beschikbaar stelt vanwege veiligheidsoverwegingen, maar het eerst aanbiedt aan een selecte groep lanceerpartners.
Wat dit betekent
De ontwikkeling markeert een verschuiving in cybersecurity: van reactief patchen van lekken naar proactief en geautomatiseerd opsporen ervan. Voor ondernemers betekent dit dat de technologie die eerst alleen beschikbaar was voor grote techbedrijven en overheden, nu via partnerschappen zijn weg vindt naar het bredere ecosysteem. Dit kan op termijn leiden tot betaalbaardere en schaalbaardere beveiligingsoplossingen voor het MKB. Het directe gevolg is dat bedrijven hun digitale infrastructuur – van websites en webapps tot interne systemen – grondiger kunnen laten screenen op kwetsbaarheden, zonder dat dit een enorme investering in gespecialiseerd personeel vereist. Het partnership met cloudaanbieders zoals AWS en Google Cloud wijst erop dat deze scans waarschijnlijk geïntegreerd zullen worden in bestaande clouddiensten.
Hoe je dit kunt toepassen
De praktische toepassing hangt af van jouw situatie en hoe de partners van Anthropic deze technologie gaan inbedden in hun diensten. Op basis van de aankondiging zijn dit logische scenario’s waar je op kunt anticiperen.
Als je een webshop of bedrijfswebsite runt… dan is de beveiliging van je platform cruciaal. In de toekomst zou je hostingprovider of beveiligingspartner geautomatiseerde scans kunnen aanbieden, gebaseerd op technologie zoals deze. Je zou kunnen overwegen om bij je huidige provider te informeren naar geavanceerde, AI-gestuurde beveiligingsscan-diensten. Een mogelijkheid is om te kijken of je clouddienst (bijvoorbeeld via Google Cloud Platform of AWS) binnenkort nieuwe security-tools aanbiedt die verder gaan dan basis-scans.
Als je software ontwikkelt of laat ontwikkelen voor intern gebruik… dan introduceer je mogelijk zelf kwetsbaarheden. Een optie is om bij je ontwikkelpartner of softwareleverancier te vragen naar hun test- en scanprocedures. Je zou kunnen overwegen om in toekomstige aanbestedingen expliciet te vragen naar het gebruik van geavanceerde, geautomatiseerde security-testtools tijdens het ontwikkelproces, om risico’s vroegtijdig te identificeren.
Als je verantwoordelijk bent voor de IT-infrastructuur van een groter MKB… dan is het beheer van updates en patches een constante uitdaging. Deze ontwikkeling wijst op een toekomst waarin je security-systemen niet alleen waarschuwen voor bekende lekken, maar ook proactief zoeken naar onbekende zwakke plekken in je netwerk. Het is verstandig om in gesprek te gaan met je beveiligingsleverancier of managed service provider (MSP) over hun roadmap: vragen of en wanneer zij geautomatiseerde, AI-aangedreven kwetsbaarheidsscans gaan integreren in hun dienstverlening.
Bron: The Verge