Det här är en opinionstext. Åsikter som uttrycks är skribentens egna.
Inom cybersäkerhet har AI länge varit ett kritiskt redskap, som också väntas bli alltmer bärande framöver i takt med att fler organisationer och myndigheter implementerar proaktiva försvar.
Samtidigt väcker hajpen en kritisk fråga: utnyttjar vi kraften i artificiell intelligens, eller sveps vi bara med i en flodvåg av modeord?
Just modeord behöver vi inte leta länge efter. Att bara klistra på etiketten ”AI-driven” på en produkt garanterar inte dess effektivitet. Verkligheten är mer nyanserad än så, och framför allt innebär inte AI någon magisk trollstav för ett vattentätt cyberförsvar.
I dag har AI en rad fördelar inom cybersäkerhet; tekniken kan snabbt analysera enorma datamängder, identifiera mönster och automatisera svar. Däremot kan AI inte ensamt lösa alla problem som säkerhetsavdelningar kämpar med. Snarare hänger effektiviteten på två avgörande faktorer: kvaliteten på de data AI tränas på och den kontinuerliga förbättringen av modeller. En modell tränad på otillräckliga eller irrelevanta data är som en kraftfull motor som går på tomgång.
Ett samarbetsinriktat tillvägagångssätt
Där ligger också problemet som den kanske mest utbredda missuppfattningen bygger på: att AI är på väg att ersätta mänsklig expertis. Även om AI kan automatisera uppgifter och förstärka mänskliga förmågor, kan den inte helt ersätta det kritiska tänkandet, intuitionen och den kontextuella förståelsen som utbildad säkerhetspersonal bidrar med.
Framtiden inom cybersäkerhet ligger i ett samarbetsinriktat tillvägagångssätt, där människor och teknik arbetar tillsammans och utnyttjar varandras styrkor. Därför behöver vi fortsatt säkra upp kompetens och locka talanger till branschen. Detta parallellt med att nya lösningar implementeras och befintliga uppdateras.
Tyvärr råder ett stort underskott av kompetens. Den ideella medlemsorganisationen ISC2 uppskattar att det globalt saknas 4,8 miljoner personer med cybersäkerhetskompetens. Inför detta växande kompetensgap kan AI ses som en av lösningarna. Risken är dock att AI betraktas som en ersättare snarare än en brygga mellan mänsklig och artificiell interaktion. I värsta fall leder det till att organisationer använder AI-modeller som inte fullt ut är redo för sina uppgifter. Det lär hämma utvecklingen snarare än att föra den framåt.
Risk för dataförgiftning
Det vore en farlig utveckling givet att cybersäkerhetslandskapet ständigt förändras och kräver ett dynamiskt tillvägagångssätt, där AI-modeller regelbundet uppdateras och anpassas till en dynamisk hotmiljö. En statisk modell blir snabbt föråldrad och lämnar organisationer sårbara. Dessutom finns risken för dataförgiftning, där angripare injicerar skadliga data för att manipulera inlärning, vilket skapar behov av ständig vaksamhet och robusta valideringsmekanismer. Det här är bara en del av AI där vi ser ett ökat behov av mänsklig kompetens framöver.
I en tid då AI toppar agendan, bland annat tack vare den diskussion som följt efter AI-kommissionens rapport, gäller det bara att ta vara på möjligheterna som en ökad dialog innebär för att kunna möta framtidens krav på bästa sätt.
Följande fyra punkter är extra brådskande att börja arbeta med redan nu:
Investera i kompetens:
AI kan inte ses som ett substitut för mänsklig expertis. Här behövs satsningar på att utbilda och rekrytera kompetent personal som kan hantera, övervaka och utveckla AI-lösningar.
Prioritera cybersäkerhetsutbildning:
Sverige behöver aktivt satsa på utbildning inom cybersäkerhet på alla nivåer, från grundskola till högre utbildning och yrkesutbildningar. Detta är avgörande för att möta den växande efterfrågan på kompetens inom området. Samarbete mellan utbildningsinstitutioner, näringsliv och offentlig sektor är nyckeln till att skapa relevanta och framtidssäkra utbildningsprogram.
Ha en realistisk syn på AI:
Förstå att AI kräver högkvalitativa data, kontinuerlig uppdatering och mänsklig övervakning för att fungera effektivt. Undvik att falla för hajpen och implementera AI-lösningar utan en tydlig strategi och förståelse för dess begränsningar.

Bygg en samarbetsstruktur:
Definiera tydliga roller och ansvarsområden för att säkerställa ett smidigt samarbete mellan AI-system och cybersäkerhetspersonal. Detta inkluderar att implementera processer för datahantering, modellvalidering och kontinuerlig förbättring.