Det här är en opinionstext. Åsikter som uttrycks är skribentens egna.
Cyberbrott och cybersäkerhet brukar ofta beskrivas med krigsmetaforer, och det som pågår just nu är en kapprustning med nya, högteknologiska vapen. AI har potential att revolutionera cybersäkerhet och skydda personlig integritet. Genom att använda tekniken i olika tillämpningar kan företag minska risken för bedrägerier och dataintrång samtidigt som de skyddar personlig integritet och minskar risken för missbruk av personlig information.
AI-baserade analysverktyg kan användas för att upptäcka anomalier i användarbeteenden och online-transaktioner. Genom att jämföra individens beteendemönster, kan dessa verktyg snabbt upptäcka misstänkta aktiviteter och förhindra bedrägeriförsök innan de lyckas. Samtidigt kan AI övervaka sociala medier och andra plattformar för att identifiera hot och bedrägerier, vilket ger företag och användare möjlighet att agera snabbt och skydda sig. Ett exempel är trender om hur bedrägeri genomförs och delas med andra för att göra egna bedrägeriförsök.
Men med teknikens framsteg kommer också nya risker. Cyberkriminella kan använda AI för att skapa mer sofistikerade och svårdetekterade bedrägerier, utnyttja befintliga verktyg för att orsaka skada för individer och företag. Det blir allt viktigare att vi som säkerhetsexperter håller jämna steg med dessa nya tekniker och förstår hur de kan användas på oetiska sätt.
Dessutom kan bedragare naturligtvis också kan använda generativa AI-tjänster för att skapa mer sofistikerade bedrägerier som är svårare att upptäcka.
Utöver att kunskapsbanken i en konverserande generativ AI-modell som till exempel ChatGPT kan utnyttjas för att skapa mer professionella riktade bedrägerier, kan deepfake-teknik användas för att skapa realistiska falska bilder, röster och till och med videor som kan lura offer att lämna ut känslig information eller sprida falska uppgifter. Vi är vana vid att hantera textbaserade bedrägerier efter många år av e-post och sms-bedrägerier, men röster, bilder och filmer är vi inte lika inövade på. Under mars och april har flera storskaliga bedrägerier uppmärksammats i USA och Kanada, där deepfake-genererade röster och bilder använts för att lura personer att tro att deras anhöriga blivit kidnappade. Vi ser alltså redan idag en mängd exempel på hur verktyg som finns allmänt tillgängliga på nätet leder till att verksamheter och individer drabbas, och inget tyder på att den utvecklingen kommer att avstanna.
”Det finns en fullt rimlig oro för att användningen av AI kan kränka personlig integritet”
Även om AI-tekniken även kan användas för att identifiera deepfakes utvecklas tekniken ständigt för att skapa mer naturtrogna resultat. På de flesta tjänster finns olika former av spärrar och begränsningar för att undvika oetisk användning, men dessa är långt ifrån heltäckande.
En annan utmaning med AI är att den kan ge upphov till falska positiva resultat, där tekniken identifierar en aktivitet som bedräglig fastän den inte är det. Detta kan leda till onödiga utredningar eller att legitima aktiviteter blockeras av säkerhetsverktygen. En rapport från Ponemon Institute visade att upp till 45 procent av bedrägerilarmen som genererats av AI-verktyg var falska positiva resultat. Det är en siffra som naturligtvis måste förbättras.
Dessutom finns det en fullt rimlig oro för att användningen av AI kan kränka personlig integritet, särskilt när tekniken används för att övervaka och samla in data om användare. Detta är särskilt relevant med tanke på att fler människor använder smarta hem- och personliga assistentenheter i vardagen. Det ställer höga krav på att övervakningstekniken används försiktigt och ansvarsfullt med respekt för privatlivet.
Trots dess utmaningar har AI-tekniken potential att förbättra cybersäkerheten och skydda personlig integritet på många olika sätt. Men bara om utvecklingstakten tillåts fortsätta vara hög.
Både internationellt och i Sverige har röster höjts på senare tid för att begränsa eller pausa forskning och utveckling inom AI. Erfarenhet från historien visar att det vore ett misstag – om bara de med dolska syften tillåter sig att utveckla nya och mer kraftfulla verktyg kommer maktbalansen att förskjutas och försvaret att bli svårare.