Undersökningen bygger på tusentals upprepade tester av närmare 100 olika språkmodeller. Enligt Trend Micro visar resultaten att AI-system inte alltid levererar konsekventa eller uppdaterade svar, även när samma prompt används. Detta kan få särskilt stor betydelse för organisationer inom offentlig sektor, där AI i ökande grad används för kommunikation, beslutsstöd och informationshantering.

– Tester visar att AI-system i vissa fall återger inkonsekvent eller föråldrad information i politiskt känsliga eller regulatoriska sammanhang, säger Martin Fribrock, Sverigechef på Trend Micro. Om sådan information uppfattas som officiell kan det påverka förtroendet för både myndigheter och företag.

”Betrakta LLM som ett högriskområde”

Enligt Trend Micro finns det en utbredd uppfattning att AI-system fungerar på samma sätt som traditionell programvara, där samma indata alltid ger samma utdata. Studien pekar dock på att detta antagande inte stämmer för stora språkmodeller, som kan påverkas av regionala inställningar, språkval och interna säkerhetspolicyer.

Trend Micro menar att organisationer därför behöver betrakta användning av LLM som ett högriskområde, särskilt i användarorienterade eller samhällskritiska sammanhang. Det innebär behov av tydlig styrning, ansvarsfördelning, kontinuerlig testning och mänsklig granskning av AI-genererade resultat.

Rapporten lyfter även vikten av transparens från leverantörer av AI-tjänster, bland annat kring hur modeller tränas, vilka datakällor som används och vilka begränsningar som kan påverka resultaten. Enligt Trend Micro är detta avgörande för att AI ska kunna användas på ett tillförlitligt sätt i verksamheter där korrekt och konsekvent information är central.