
EU:s AI-lag trädde i kraft den 1 augusti med syftet att skydda medborgarnas rättigheter och säkerhet och ska samtidigt främja innovation. På frågan om EU:s AI-lag kommer att påverka organisations användande av AI uppger 50 procent nej, 13 procent ja och 37 procent uppger att de inte vet. För stora företag uppger 18 procent att de påverkas, medan endast 3 procent av medelstora företag, med 50-249 anställda, uppger att de påverkas.
– EU navigerar i den komplicerade balansen mellan reglering och innovation inom AI. Den rigorösa riskklassificeringen är lovvärd och kräver ett nyanserat ramverk, som bättre säkerställer etisk användning och transparens samtidigt som innovation och konkurrenskraft främjas, säger Dan Sommer, ansvarig för omvärldsbevakning på Qlik.
– För att uppnå denna jämvikt krävs ett regelverk som främjar flexibilitet, belönar innovationer som rör dataintegritet och uppmuntrar etiska AI-framsteg genom incitament och stödmekanismer, fortsätter han.
EU:s AI-lag kategoriserar AI-system i olika risknivåer, från låg till oacceptabel risk, baserat på potentiell påverkan på individer och samhället, med striktare regler för högre risknivåer. Exempel på hög risk är inom kritisk infrastruktur och rättsväsendet, med strikta krav på transparens, säkerhet, och ansvarighet. Exempel på begränsade risker är röstassistenter eller chatbotar, som omfattas av transparenskrav som att informera användarna om att de interagerar med AI. Företag som bryter mot reglerna riskerar att få böter, som kan uppgå till flera procent av företagets omsättning, beroende på hur allvarlig överträdelsen är.