Een nieuw AI-model van Anthropic kan automatisch beveiligingslekken vinden in grote softwareplatforms, wat een potentieel krachtig instrument is voor cybersecurity. Dit betekent dat complexe, repetitieve beveiligingscontroles geautomatiseerd kunnen worden, waardoor menselijke experts zich kunnen richten op complexere bedreigingen.
Wat er aan de hand is
Anthropic, de maker van de AI Claude, lanceert een nieuw AI-model genaamd ‘Claude Mythos Preview’ als onderdeel van een cybersecurity-samenwerking genaamd Project Glasswing. Het project is een partnerschap met grote techbedrijven zoals Nvidia, Google, Amazon, Apple en Microsoft. Het doel is volgens het bedrijf om grote organisaties en mogelijk overheden te helpen kwetsbaarheden in hun systemen te identificeren met vrijwel geen menselijke tussenkomst. Newton Cheng, de cyberleider van Anthropic’s ‘frontier red team’, vertelde aan The Verge dat het model tijdens interne tests “in elk groot besturingssysteem en elke webbrowser” beveiligingsproblemen heeft gevonden. Het bedrijf biedt het model momenteel alleen aan zijn lanceerpartners aan en heeft geen plannen om het publiekelijk vrij te geven vanwege veiligheidsoverwegingen.
Wat dit betekent
Dit nieuws markeert een verschuiving in de cybersecurity-wereld, waar het vinden van kwetsbaarheden traditioneel afhankelijk is van gespecialiseerde, schaarse menselijke expertise. De ontwikkeling toont aan dat geavanceerde AI-modellen steeds beter worden in het analyseren van complexe code en het herkennen van patronen die op zwakke plekken kunnen duiden. Voor het MKB betekent dit dat de technologie die nu wordt ontwikkeld en getest door techreuzen, op termijn de weg kan banen voor meer toegankelijke en betaalbare beveiligingstools. Het directe effect is nu nog beperkt tot grote spelers, maar het zet een trend in gang: AI wordt een steeds belangrijker onderdeel van de verdediging tegen cyberaanvallen, wat op de middellange termijn de drempel voor goede beveiliging kan verlagen.
Hoe je dit kunt toepassen
Hoewel het specifieke model van Anthropic niet publiek beschikbaar is, wijst deze ontwikkeling op een bredere trend waar ondernemers nu al op kunnen anticiperen. De kern is dat AI-gestuurde beveiligingsanalyse uit de exclusieve sfeer van grote bedrijven komt.
Als je afhankelijk bent van standaardsoftwarepakketten… zoals je boekhoudsysteem, CRM of webshop-platform, dan is het belangrijk om te weten dat leveranciers steeds vaker dit soort AI-tools intern gaan gebruiken. Je kunt hierop inspelen door bij je leveranciers te vragen naar hun beleid voor het proactief scannen en patchen van kwetsbaarheden. Stel het updaten van software niet uit, want veel updates bevatten juist dit soort beveiligingsreparaties.
Als je een (klein) development team hebt of externe developers inhuurt… voor een eigen app of website, dan wordt de kwaliteit van code-analyse steeds belangrijker. Overweeg om nu al te investeren in geautomatiseerde beveiligingsscans voor je codebase. Er bestaan al diverse betaalbare SaaS-tools die continu op kwetsbaarheden scannen. Dit soort tools wordt alleen maar slimmer en toegankelijker door ontwikkelingen zoals die van Anthropic.
Als je verantwoordelijk bent voor de IT-beveiliging in een groter MKB… dan verandert je rol. Repetitieve taken zoals het scannen op bekende lekken worden geautomatiseerd. Je focus verschuift naar het interpreteren van de resultaten, het prioriteren van risico’s en het beveiligen van de menselijke factor (zoals phishing). Blijf je bijscholen op het gebied van AI in cybersecurity, zodat je kunt beoordelen welke geautomatiseerde tools betrouwbaar en effectief zijn voor jouw organisatie.
De praktische toepassing van dit specifieke nieuws hangt af van jouw situatie. De belangrijkste les is dat AI een blijvertje is in cybersecurity. Het is verstandig om bij softwareleveranciers en IT-partners te informeren naar hun roadmap voor het integreren van AI-gestuurde beveiliging. Zo positioneer je je bedrijf voor de tools van morgen.
Bron: The Verge