Een nieuw AI-model van Anthropic kan automatisch beveiligingslekken vinden in vrijwel alle grote besturingssystemen en webbrowsers. Dit betekent dat bedrijven hun software-infrastructuur sneller en grondiger kunnen laten screenen op kwetsbaarheden, zonder dat daar veel menselijke tussenkomst voor nodig is.
Wat er aan de hand is
Anthropic, de maker van de AI Claude, lanceert een nieuw AI-model genaamd ‘Claude Mythos Preview’ als onderdeel van een cybersecurity-samenwerking met grote techbedrijven zoals Nvidia, Google, Amazon, Apple en Microsoft. Het project, ‘Project Glasswing’ genoemd, is specifiek ontwikkeld om kwetsbaarheden in softwaresystemen automatisch op te sporen. Volgens Newton Cheng, de cybersecurity-leider van Anthropic, vond het model tijdens tests beveiligingsproblemen “in elk groot besturingssysteem en elke webbrowser”. Het model is voorlopig niet publiekelijk beschikbaar; alleen de genoemde launch-partners krijgen er toegang toe vanwege veiligheidsoverwegingen. Het doel is om grote organisaties, en mogelijk zelfs overheden, in staat te stellen hun systemen met minimale menselijke tussenkomst te screenen.
Wat dit betekent
Dit betekent een verschuiving in hoe beveiligingslekken worden gevonden. Traditioneel is dit arbeidsintensief werk voor gespecialiseerde ethische hackers. Een AI die dit automatiseert, kan de snelheid en schaal van security-scans aanzienlijk vergroten. Voor het MKB is de directe impact nu nog beperkt, omdat het model niet publiek toegankelijk is. De indirecte impact is echter groot: de grote techbedrijven die nu toegang hebben, zullen de gevonden kwetsbaarheden in hun eigen producten (zoals Windows, macOS, Chrome en Safari) gaan repareren. Hierdoor worden de softwarepakketten die vrijwel elk bedrijf gebruikt, uiteindelijk veiliger. Het signaleert ook een trend: geavanceerde AI wordt een kerninstrument in cybersecurity, wat op termijn kan leiden tot meer geautomatiseerde security-diensten die ook voor kleinere bedrijven betaalbaar worden.
Hoe je dit kunt toepassen
De praktische toepassing hangt af van jouw situatie. Omdat het AI-model zelf niet direct beschikbaar is voor het brede publiek, kun je er vandaag niet mee aan de slag. Je kunt wel anticiperen op de gevolgen van deze ontwikkeling en je beveiligingsaanpak hierop aanpassen.
Als je afhankelijk bent van standaardsoftware… zoals Windows, Microsoft 365, of Google Workspace, betekent dit dat de beveiliging van die platforms op termijn waarschijnlijk robuuster wordt. Zorg ervoor dat automatische updates altijd aan staan, zodat je direct profiteert van de patches die volgen op dit soort geautomatiseerde scans.
Als je een eigen (web)applicatie laat ontwikkelen… wordt de druk groter om security vanaf het begin mee te nemen. Vraag je ontwikkelaar of het developmentproces al tools bevat voor automatische security-scans (SAST/DAST) en of deze in de toekomst mogelijk met AI-aangedreven modellen kunnen worden versterkt.
Als je verantwoordelijk bent voor IT-beveiliging… is dit een signaal om de roadmap van je security-leveranciers te bevragen. Vraag of en hoe zij AI integreren in hun threat detection en vulnerability management. Het doel is niet om zelf het wiel uit te vinden, maar om te profiteren van de tools die hieruit voortvloeien.
Als je een bredere security-strategie overweegt… onthoud dan dat technologie zoals deze AI vooral de bekende, scanbare kwetsbaarheden vindt. De menselijke factor (phishing, social engineering) en processen blijven cruciaal. Zie geavanceerde AI daarom niet als vervanging, maar als een krachtige toevoeging aan een bredere beveiligingsaanpak.
Bron: The Verge