Den aktuella koden, som upptäcktes i juni 2025, använde en teknik kallad prompt injection – ett sätt att “prata” direkt med AI-modellen genom att injicera instruktioner som får den att misstolka eller ignorera farlig kod. I det här fallet formulerades delar av programkoden som instruktioner riktade till säkerhetsmodellens analysmotor, i hopp om att få den att klassificera innehållet som ofarligt.

Försöket misslyckades – Check Points AI-baserade säkerhetssystem identifierade angreppet och flaggade det som skadligt. Men även om attacken inte gick igenom, ser företaget detta som en viktig varningssignal.

Vi ser början på en ny typ av attack där AI-modellen i sig blir måltavlan.

– Det här är ett tydligt exempel på hur hotbilden förändras, säger Fredrik Sandström, säkerhetsexpert på Check Point Software. Vi ser början på en ny typ av attack där AI-modellen i sig blir måltavlan. Det här är en väckarklocka för organisationer att rusta upp sina säkerhetssystem.

Check Point har valt att kalla denna typ av angrepp för AI Evasion – ett nytt hotbegrepp i cybersäkerhetsvärlden. Det syftar på försök att vilseleda och underminera AI-baserade försvarssystem genom att manipulera deras tolkningsförmåga snarare än att gömma skadlig kod med klassiska metoder som kryptering eller paketering.

I takt med att generativ AI och stora språkmodeller blir allt vanligare inom både offentliga och privata säkerhetslösningar ökar också behovet av att skydda dessa system från att själva bli attackerade.

Check Point förutspår att AI Evasion kommer bli en snabbt växande kategori av attacker i takt med att tekniken integreras djupare i cybersäkerhetsplattformar.