Det här är en opinionstext. Åsikter som uttrycks är skribenternas egna.
Ett uppmärksammat bedrägeri nyligen mot ett företag i Hong Kong slutade med att en anställd förde över 25 miljoner dollar till cyberbrottslingar. Anledningen var att företagets CFO bad om överföringen under en videokonferens. Men det var inte CFO:n som bad om pengar. Det var en digital kopia, som både såg ut och lät som CFO:n.
Inte nog med det. Det fanns digitala kopior av flera av den lurade medarbetarens kolleger med under videomötet. Och själva mötet var påhittat.
Att fejka röster med hjälp av AI är inget nytt. Men bedrägeriet i Hong Kong är det första allmänt kända exemplet på att fejka både röst och bild (alltså utseende) för en person. Kontentan är att vi inte längre kan lita på det vi ser online. Vi kan framför allt inte lita på att vi pratar med folk som vi känner väl i den verkliga världen, under videomöten.
När en hotaktör lyckats komma över en så pass stor summa så kan vi vara säkra på att flera hotaktörer kommer att utföra liknande bedrägerier. De lär sig av varandra och nya avancerade lösningar för cyberbrott blir snabbt tillgängliga som tjänster, vilket innebär att det inte krävs teknisk kompetens för att använda dem. Lägg till det att det faktiskt bara krävs små datamängder, ljud och bild, för att göra sådana här deepfakes.
Ett konkret exempel på att hotaktörer lär sig av att titta på hur andra hotaktörer arbetar är att i 2020 i just Hong Kong så lyckades en sådan komma över 35 miljoner dollar genom ett deep voice-bedrägeri (fejkad röst). Det bedrägeriet kan ses som föregångaren till det bedrägeri vi ser nu med både bild och ljud.
Den här nya kombinationslösningen (ljud och bild) är inte bara ett exempel på en i dagsläget extremt avancerad metod för bedrägeri (som snart blir vardagsmat). Det är dessutom ytterligare en typ av cyberbrott som vi behöver skydda oss mot, förutom de som redan finns. Men det går att skydda sig:
- Kräva flerfaktorsautentisering för att identifiera alla deltagare i videokonferenssystem och videomöten.
- Processer och rutiner som tar hänsyn till att den här tekniken för deepfakes är allmänt tillgänglig.
- Informera hela organisationen om det här hotet och vad det innebär.
- Använd AI-baserade lösningar för att upptäcka deepfakes.
De närmaste åren kommer vi med all säkerhet att få se en AI-kapprustning mellan hotaktörer och potentiella brottsoffer. Det krävs helt enkelt AI-lösningar för att bekämpa AI-brott, annars blir det som att ”bring a knife to a gunfight”. Om ni inte vill råka illa ut på ditt företag gör ni bäst i att dra nytta av de AI-lösningar som finns tillgängliga för att skydda er.