Emanuel Lipschütz

AI-baserade cyberattacker är inte längre ett framtidsscenario. De pågår redan och utvecklingen går snabbare än vad de flesta organisationer hinner hantera. Den största förändringen är hur lite mänsklig inblandning som krävs. Det rubbar hela cybersäkerhetens spelplan. Samtidigt finns det hopp: när angriparna använder AI måste också försvaret göra det, med större strategiskt fokus, bättre systematik och betydligt högre hastighet än tidigare.

Ett av de tydligaste exemplen på den nya hotbilden är Anthropics utvecklingsverktyg Claude Code, som nyligen manipulerades av kinesiska statsstödda aktörer. Enligt bolagets egen rapportering användes verktyget för angrepp mot ett trettiotal organisationer under september. I minst fyra fall lyckades angriparna stjäla känslig data, men de drabbade organisationerna har inte namngivits. Det mest anmärkningsvärda var graden av autonomi: mellan 80 och 90 procent av attackkedjan genomfördes automatiskt. Det handlade om rena ”one-click-attacker”, där människans roll främst var att godkänna några få steg.

Ambitionsnivån måste höjas

När AI-agenten själv kan sköta rekognosering, analys, sårbarhetsjakt och angreppsplanering förändras inte bara angriparnas kapacitet – utan även försvararnas tidsfönster. Det största hotet är inte längre hur sofistikerad en enskild attack är, utan den massiva mängd parallella attacker som kan startas av aktörer med minimal kompetens. För några år sedan krävdes veckor av manuellt arbete. I dag räcker några instruktioner. Resten sköter modellen.

Det är på den här spelplanen våra organisationer förväntas försvara sig. Och det går, men bara om ambitionsnivån höjs och vi tar till oss verktyg och arbetssätt som matchar hoten. AI som försvarsteknik är inte längre ett experiment. Det är en nödvändighet.

Vad krävs då för att stå emot den här generationen av autonoma attacker? För det första behöver organisationer kombinera automatiserad hotdetektering och sårbarhetsanalys med mänsklig expertis. AI är överlägset i hastighet och förmåga att identifiera avvikelser, men människor har omdömet och förståelsen för vad som faktiskt spelar roll. Den som förlitar sig på ren automation bygger ett försvar utan strategiskt djup. 

AI-baserade mognadsmätningar

För det andra måste patchning och uppdateringar automatiseras i mycket större utsträckning än idag. När AI-drivna angripare utnyttjar kända sårbarheter inom minuter efter att de offentliggörs duger inte veckovisa patchrutiner. ”Alla system” måste innebära just det: alla.

Dessutom behöver organisationer få en ärlig, datadriven bild av var de är som svagast. Med AI-baserade mognadsmätningar kan man se var säkerhetsnivån är hög och var de faktiska svagheterna finns. Autonoma angripare letar inte efter ett hål. De letar efter alla. Därför måste försvarsförmågan följas upp kontinuerligt, inte i årliga cykler.

Samtidigt kvarstår en gammal sanning: bra åtkomstkontroll och multifaktorautentisering är fortfarande avgörande. Det stoppar en stor mängd attacker, oavsett hur smart angriparens AI är. Social manipulation är fortsatt en av de mest effektiva metoderna och med AI-genererade mejl, röster, meddelanden och deepfakes som är nästintill perfekta imitationer blir det än viktigare att personalen utbildas löpande.

Zero Trust inget ideal

Organisationer måste dessutom skydda sina AI-miljöer. Modeller, träningsdata och API-nycklar kan angripas, manipuleras och läcka. När våra försvarssystem blir allt mer AI-drivna måste de betraktas som kritiska resurser, med tydliga policyer för användning, loggning och granskning.

I slutänden är Zero Trust inte längre ett ideal, det är ett krav. När angripare kan röra sig lateralt genom nätverk i hög hastighet måste varje enhet, användare och begäran verifieras. Alltid. Utan undantag.

När angriparna använder AI kan vi inte ”bring a knife to a gunfight”. Cybersäkerhetsförsvaret måste moderniseras, automatiseras och förstärkas med försvarssystem som kan möta en AI-driven motståndare på samma tekniska nivå. Organisationer som klarar omställningen, och gör det snabbt, kommer att stå starka även när nästa våg av autonoma attacker genomförs.

Nästa våg kan mycket väl domineras av AI-styrda supply chain-attacker och realtidsanpassade angrepp där reinforcement learning-modeller optimerar varje steg i attackkedjan. De som väntar riskerar att upptäcka att deras traditionella försvarsmodeller inte längre räcker, först när det redan är för sent.

Emanuel Lipschütz, cybersäkerhetsexpert på Cyber Defencely