Anna Kleine
Foto: Kristian Pohl

Trots det växande intresset för AI och automatisering inom svenskt näringsliv märks en tydlig försiktighet. Orsakerna är flera, men informationssäkerhet och integritetsfrågor är centrala. Det menar Anna Kleine, regionchef på techbolaget Fellowmind.

– Företag håller tillbaka eftersom de inte fullt ut förstår vad som händer med datan – varken den som matas in i systemen eller den som kommer ut till användarna, säger hon.

Många svenska företag befinner sig idag i en utforskande fas, där pilotprojekt och Proof of Concept (PoC) dominerar snarare än fullskaliga AI-initiativ. Enligt Anna Kleine är detta ett resultat av både teknisk osäkerhet och regulatoriska frågetecken.

– Vi ser en önskan att avvakta. Många vill se hur andra företag gör, hur de hanterar utmaningarna och vilka lösningar som faktiskt fungerar i praktiken.

Datastruktur, silos och bristande transparens

När det gäller specifika AI-tillämpningar som RPA (Robotic Process Automation) och maskininlärning pekar Anna Kleine på vikten av datakvalitet och struktur som avgörande för att lyckas – och för att kunna skydda känslig information.

– Man behöver klassificera och skydda datan, se till att rätt information inte når fel användare. Men det stora problemet är ofta att informationen ligger i silos. Det saknas ett holistiskt perspektiv på både processer och data, förklarar hon.

Även om tekniken i sig kan vara mogen, är förutsättningarna inom organisationerna ofta inte det. Det gör det riskabelt att skala upp användningen av AI, särskilt där informationssäkerheten är svår att garantera.

Etik, juridik och teknik går hand i hand

En annan faktor som bidrar till företagens försiktighet är den ökade komplexiteten kring juridiska och etiska frågor. Här är kopplingen till informationssäkerhet tydlig.

– Om AI får tillgång till personuppgifter – vad gäller då för samtycke, övervakning och vidare användning? Det är frågor som många upplever som svåra, särskilt när det saknas transparens kring hur AI-modellerna faktiskt fungerar, fortsätter Anna Kleine.

Hon lyfter också risken för snedvridna resultat från AI-system, så kallade hallucinationer eller bias, vilket ytterligare ökar kraven på kontroll, spårbarhet och ansvarsutkrävande.

– Företag måste ha koll på rättvisa, ansvar, incidenthantering – och samtidigt hålla sig uppdaterade kring riktlinjer och lagstiftning som förändras snabbt.

Tre nivåer av ansvar

För att öka svenska företags förtroende för AI ur ett säkerhetsperspektiv krävs insatser på flera nivåer, menar Anna Kleine. Hon lyfter tre konkreta spår:

  1. Myndigheter och branschorganisationer bör erbjuda tydliga riktlinjer, vägledning och tolkningshjälp kring regelverk som GDPR och den kommande AI Act från EU.
  2. Leverantörer och utvecklare av AI-tjänster måste satsa på transparens, regelefterlevnad och bygga tillit – bland annat genom säkra system för datalagring, åtkomst och hantering.
  3. Företag själva behöver arbeta aktivt med informationsklassning, välja pålitliga tjänster och successivt öka kompetensen internt.

– Det handlar om att visa på den faktiska nyttan med AI, välja rätt användningsområden och bygga trygghet steg för steg. Man ska inte börja med de mest känsliga tillämpningarna. Börja enkelt och säkert, och väx därifrån, avslutar Anna Kleine.