Bilden är AI-genererad.

Lanseringen sker i en tid då allt fler organisationer implementerar egna chattbottar och AI-applikationer, exempelvis inom kundsupport, webb­sök och interna stödsystem. Enligt bolaget förändras hotbilden snabbt i takt med att användningen av stora språkmodeller ökar.

Skydd i realtid och kontinuerlig testning

F5 AI Guardrails fungerar som ett säkerhetslager som begränsar vilka instruktioner, så kallade prompter, en språkmodell kan ta emot och besvara. Syftet är att minska risken för att modellen genererar otillåtet eller känsligt innehåll.

Den kompletterande tjänsten F5 AI Red Team innebär att språkmodeller utsätts för kontinuerliga säkerhetstester, där potentiella sårbarheter identifieras innan systemen tas i produktion eller uppdateras. Enligt F5 uppdateras plattformen med omkring 10 000 nya attacktekniker per månad, som används för att testa och justera säkerhetspolicys.

Bolaget uppger att kombinationen av realtidsskydd och löpande testning ska ge ett mer dynamiskt skydd jämfört med statiska säkerhetslösningar.

Integreras med befintligt infrastrukturskydd

De nya AI-säkerhetsfunktionerna kan enligt F5 integreras med bolagets befintliga lösningar för API-säkerhet, webbapplikationsbrandväggar och DDoS-skydd. Tanken är att organisationer ska kunna samla skyddet för AI-applikationer och övrig infrastruktur i en gemensam plattform, i stället för att använda separata punktlösningar.

F5, som är noterat på Nasdaq under beteckningen FFIV, är verksamt inom multi-cloud-säkerhet och applikationsleverans. Lanseringen av de nya AI-relaterade säkerhetslösningarna är en del av bolagets satsning på skydd för affärskritiska AI-tillämpningar.