F5 lanserar nya säkerhetslösningar för AI-applikationer
Cybersäkerhetsbolaget F5 presenterar två nya säkerhetslösningar med inriktning på skydd av AI-applikationer och språkmodeller. Produkterna, F5 AI Guardrails och F5 AI Red Team, är utformade för att minska risken för dataläckage, manipulation och oönskade interaktioner i AI-baserade tjänster.
Linda Kante
Uppdaterad: 25 februari 2026Publicerad: 25 februari 2026
Bilden är AI-genererad.
Lanseringen sker i en tid då allt fler organisationer implementerar egna chattbottar och AI-applikationer, exempelvis inom kundsupport, webbsök och interna stödsystem. Enligt bolaget förändras hotbilden snabbt i takt med att användningen av stora språkmodeller ökar.
Skydd i realtid och kontinuerlig testning
F5 AI Guardrails fungerar som ett säkerhetslager som begränsar vilka instruktioner, så kallade prompter, en språkmodell kan ta emot och besvara. Syftet är att minska risken för att modellen genererar otillåtet eller känsligt innehåll.
ANNONS
Den kompletterande tjänsten F5 AI Red Team innebär att språkmodeller utsätts för kontinuerliga säkerhetstester, där potentiella sårbarheter identifieras innan systemen tas i produktion eller uppdateras. Enligt F5 uppdateras plattformen med omkring 10 000 nya attacktekniker per månad, som används för att testa och justera säkerhetspolicys.
Bolaget uppger att kombinationen av realtidsskydd och löpande testning ska ge ett mer dynamiskt skydd jämfört med statiska säkerhetslösningar.
Integreras med befintligt infrastrukturskydd
De nya AI-säkerhetsfunktionerna kan enligt F5 integreras med bolagets befintliga lösningar för API-säkerhet, webbapplikationsbrandväggar och DDoS-skydd. Tanken är att organisationer ska kunna samla skyddet för AI-applikationer och övrig infrastruktur i en gemensam plattform, i stället för att använda separata punktlösningar.
F5, som är noterat på Nasdaq under beteckningen FFIV, är verksamt inom multi-cloud-säkerhet och applikationsleverans. Lanseringen av de nya AI-relaterade säkerhetslösningarna är en del av bolagets satsning på skydd för affärskritiska AI-tillämpningar.
Aktuell Säkerhet jobbar för alla som vill göra säkrare affärer och är därför en säker informationskälla för säkerhetsansvariga inom såväl privat som statlig och kommunal sektor. Vi strävar efter förstahandskällor och att vara på plats där det händer. Trovärdighet och opartiskhet är centrala värden för vår nyhetsjournalistik
Genom att klicka på "Prenumerera" ger du samtycke till att vi sparar och använder dina personuppgifter i enlighet med vår integritetspolicy.
Manage Consent
To provide the best experiences, we use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us to process data such as browsing behavior or unique IDs on this site. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Functional Alltid aktiv
The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Statistics
The technical storage or access that is used exclusively for statistical purposes.The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
Marketing
The technical storage or access is required to create user profiles to send advertising, or to track the user on a website or across several websites for similar marketing purposes.