
Vad betyder AI för cybersäkhetsarbetet och hur kan den användas emot oss?
– Vi har använt AI, eller rättare sagt ML [machine learning, red. anm.] på försvarssidan under väldigt lång tid, framförallt för att se mönster i exempelvis nätverkstrafik eller hur mjukvara beter sig i våra it-system. Vi har dock inte riktigt sett storskaliga attacker som tagit hjälp av AI eller ML. Cyberkriminella har inte riktigt haft behovet ännu eftersom deras ordinarie attacker fortfarande är väldigt effektiva.
Dock ser vi hur cyberkriminella börjar använda språkmodeller för att generera nätfiskemail, chattbottar och system för att bygga och konstruera hemsidor för bedrägeri. Det finns dessutom ett fåtal exempel där kod har modifierats med hjälp av ML, något som kan vara ett av de största problemen vi har.
Den senaste trenden är att vi ser attacker som experimenterar med ljud och bild, exempelvis deep fake, och röstmanipulation – ofta handlar det om manipulerade ljudfiler som skickas via exempelvis Whatsapp. Vi är relativt förskonade av dessa automatiserade AI attacker i dag men jag tror att den kommande tiden kommer att förändra hotbilden ganska mycket.
Hur har utvecklingen på denna front sett ut?
– Utvecklingen går ganska långsamt om man tittar på den kriminella sidan. Det experimenteras mest just nu, men det är bara en tidsfråga innan de kriminella hittar en effektiv metod som kommer förändra just detta. Och sanningen är att vi i dag använder ML till 99 procent eftersom vi fortfarande har regelverk som tränar ett system. Systemet tränas på att ta bra beslut på ur en fördefinierad lista. Skulle systemet ha tagit helt egna beslut så hade det varit mer likt ett AI.
Men om vi bortser från defintionerna av ML och AI och bara tittar på vad vi håller på med måste vi komma ihåg att det vi håller på att skapa nu kommer att förändra mänskligheten mer än vad Internet har gjort. Vi håller på att skapa system som kan processa data så extremt snabbt att vi kommer kunna integrera extremt kompetenta system I nästan allt vi gör. När vi sedan kombinerar detta med ljud och bild kommer vi även kunna bygga system som påverkar alla våra mänskliga sinnen. Du kommer kunna titta på konst och gå på konserter utan att veta om det är en människa som skapat verken är på riktigt. Du kommer kommunicera med människor och aldrig veta om personen finns på riktigt,
Jag har länge föreläst om “on demand”, det vill säga att när vi tittar på vår digitala utveckling så handlar nästan allt om att göra allt tillgängligt direkt. Vare sig det gäller musik, kunskap eller kommunikation, ALLT ska vara NU DIREKT.
Vad finns det för risker med att använda tex ChatGPT på arbetsplatsen?
– Det första stora problemet är väl att användarna inte riktigt förstår hur olika AI-modeller fungerar, exempelvis att allt man laddar upp och frågar om är också något de lär sig av. Detta betyder att om du till exempel laddar upp ett dokument och ber ChatGPT sammanställa detta, så lär sig ChatGPT sig av dokumentet och kan “läcka” information till någon annan som ställer en annan fråga, eftersom den lärt sig av ditt dokument.
Det andra handlar om källkritik, vi kan inte bara köpa den information som ChatGPT ger oss rakt av. Det är inte 100 procent sanning även om det kanske ger dig en bra insikt I ett ämne. Vi måste lära oss att använda ChatGPT som ett verktyg och inte en sanningsmaskin.
Det känns som att generativ AI ännu är i sin linda och kan utvecklas till att bli något som vi inte ens kan tänka oss idag. Hur arbetar man med något som man inte vet hur det kommer att se ut om fem år?
– Det gör vi hela tiden, vem visste att vi skulle leva i en värld där du inte klarar dig utan en mailaddress eller BankID? Vi borde jobba med AI utifrån en tydlig plan över vad vill vi använda AI till? Vi kan inte låta våra experimentprojekt bli sanningar innan vi har hunnit utvärdera dom fullt ut. Generellt sett är vi extremt duktiga på att vara “early adopters” och det är kanske inte alltid så bra.