Vilka säkerhetsrisker innebär ChatGPT?
Den stora risken är att data sprids. I samma ögonblick som du exponerar något på internet så förlorar du kontrollen över det. En chatbot som ChatGPT kan ta din information ur sitt ursprungliga sammanhang och montera ihop den på ett nytt sätt. Det är inte säkert att du gillar hur informationen sedan används, och du har inget inflytande över detta.
Informationssäkerhetsansvariga måste därför se till att verksamhetens data hanteras på ett ansvarsfullt sätt när den exponeras på internet. Om vi vill att ChatGPT inte ska ha samma dåliga inflytande som en del tidigare chatbotar måste vi helt enkelt bli bättre på att ha kontroll över var och hur vår data lagras.
Så – är inte ChatGPT en bra tjänst?
ChatGPT är en inspirerande företeelse, men det finns goda skäl till att ha en viss oro. Det var trots allt bara sex år sedan som Microsofts Tay-chatbot stängdes av efter 16 timmar, efter att den upprepade gånger använt sig av aggressivt och stötande innehåll som den samlat in från Twitter. Varför gjorde Tay detta? Eftersom dess data var förorenad och saknade kontexten. Därför förstod Tay inte att den gjorde något fel.
Oavsett om det handlar om ett Instagram-inlägg eller data som sparats i molntjänster kan någon kopiera informationen, och därefter kan ett ChatGPT-liknande program använda datan. Vi ska dessutom inte glömma att ChatGPT bara är ett exempel bland många. Det finns andra AI, och även sådana som samlar in data för mer elakartade användningsområden.
Årtiondets fråga är denna: hur utformas och används AI och chatbotar på ett ansvarsfullt sätt, som en bra och användbar tjänst?
Vad kan göra AI-tjänster som ChatGPT ofarliga?
För att en AI som ChatGPT över huvud taget ska kunna fungera på ett ansvarstagande sätt behöver den få veta vad som är information den får använda och vad som inte är det – till exempel personers namn, telefonnummer, personliga beskrivningar eller kanske bilder.
För företag och andra verksamheter är faran framför allt att deras data kommer spridas och användas av chatbotar, utan deras tillåtelse. De som är ansvariga för att skydda verksamheters information, t.ex. IT-säkerhetsansvariga och HR-avdelningar, måste därför göra det med stor försiktighet. Varje data har ett helt annat värde idag än den skulle ha haft för några år sedan och därför måste den skyddas bättre.
Förhoppningsvis blir uppmärksamheten kring ChatGPT en väckarklocka för företag att börja titta på hur de behandlar sin data, så att de börjar aktivt bestämma vilken data de ska samla in och behålla i sina system samt hur den kan användas och skyddas.
Vad behöver företagen göra för att skydda känsliga data från en chatbot?
För att undvika att data används på sätt som den inte borde användas på är det viktigt att kategorisera data och sätta kontroller kring känslig information. Som ett första steg måste IT-ansvariga få fullständig synlighet över all data som lagras i deras IT-system, så att de kan vidta åtgärder för att klassificera den.
Dessutom måste data kategoriseras bortom bara personlig kontra offentlig. Det måste vara en djupare segmentering – är uppgifterna personliga, identifierbara, konfidentiella? Utan sådana distinktioner kommer riskerna för att AI-verktygen missbrukar informationen när de blir intelligentare bara bli större och större.