Det här är en opinionstext. Åsikter som uttrycks är skribentens egna.
Nyligen uttryckte Börje Ekholm, vd för Ericsson, oro över att Europa riskerar att hamna efter i utvecklingen av egna AI-system på grund av omfattande regelverk. Han anser att AI på sikt kommer att behöva regleras, men motsätter sig idén att vi kan leda genom reglering, då det begränsar innovation alltför mycket. Om det blir ofördelaktigt att bygga modellerna inom Europa, kommer utvecklingen istället att förläggas till andra länder – något som skulle göra EU beroende av länder utanför unionen och samtidigt försätta sig i en strategiskt riskfylld position. Men även om utvecklingen av modeller flyttas utanför EU kvarstår problem. Vi har redan idag sett exempel på utvecklare av foundation models som väljer att inte tillåta användning i EU, just på grund av rättsliga konsekvenser. Jag syftar på Metas restriktioner av sin senaste modell. Detta är revolutionerande tekniska framsteg som vi inom EU nu går miste om.
För att AI Act ska kunna säkerställa säkra och rättvisa system inom EU utan att hämma vår
globala konkurrenskraft, behövs justeringar. Ett tydligt exempel är kravet på upphovsrättslig attribution, som på pappret verkar bra men är svårgenomförbart och kostsamt i praktiken. Eftersom datainsamling för träning av modellerna ofta sker från en mängd olika källor på internet, som till exempel forum, blir det svårt och kostsamt att säkerställa korrekt upphovsrättslig attribution. Upphovsrätt är naturligtvis viktigt, men jag tror att få vill hävda upphovsrätt för något de skrev på ett forum om husbygge eller på ett debattforum för fem år sedan. Det var av just denna anledning som Meta valde att inte släppa sin senaste modell inom EU.
Trots risken att halka efter i utvecklingen är regleringen av AI viktig för att skydda oss som
individer. Det ursprungliga syftet med lagstiftningen var att säkerställa att teknologin används på ett säkert och ansvarsfullt sätt, vilket ofta glöms bort i debatten. Många kritiserar EU AI Act, men jag tror att få faktiskt vill leva i en värld där AI används utan reglering och tillsyn. Lagstiftningen skyddar även vår rätt att veta om en text eller video är AI-genererad, eller om vi interagerar med en människa eller en maskin. Jag tror att ingen vill leva i ett samhälle där AI släpps helt fritt och utan kontroll, där man experimenterar sig fram i allt ifrån rekryteringsprocesser och robotkirurgi till nyhetssändningar, utan översikt eller noggrann testning.
Vad bör regleras?
Det ursprungliga huvudsyftet med EU AI Act var att reglera högrisk-AI som omfattar
områden där människors liv och hälsa står på spel, till exempel i transportsektorn och kritisk infrastruktur. Den täcker även utbildningssektorn, som vid bedömning av provresultat, samt säkerhetsfunktioner i produkter som AI-styrd robotkirurgi, och rekryteringsprocesser. Dessa restriktioner ska skydda individers integritet och säkerställa att AI inte missbrukas, något som är ytterst nödvändigt. En sak att komma ihåg är att generativ AI är icke-deterministisk, vilket innebär att samma inmatning kan resultera i olika utfall. Detta lämpar sig inte, utan genomtänkt översyn och kvalitetsgranskning, för funktioner där pålitlighet och säkerhet är viktigt. Jag tror att dessa områden fortfarande mår bra av att styras av regleringar.
Det finns även andra, lite mindre uppenbara områden där det är viktigt att vi sätter tydliga
riktlinjer, till exempel när det gäller AI genererat innehåll på hemsidor. Idag är det otroligt
enkelt att skapa trovärdigt AI-genererat innehåll – vare sig det gäller text, video eller bild –
vilket ger utrymme för aktörer med illvilliga avsikter att sprida desinformation. Jag tror att om vi vill att internet ska fortsätta vara en plats dit man går för att hitta tillförlitlig information är det viktigt att vi har någon form av särskiljningsförmåga kring AI-genererat innehåll. Där kan reglering spela en viktig roll för att sätta en standard.
Lagen behöver revideras
EU står inför ett avgörande val: Antingen utformar vi ett regelverk som främjar både säkerhet och innovation, eller så ser vi passivt på medan företag som Meta väljer bort vår marknad och framtidens teknologiska utveckling flyttar någon annanstans. Vi har inte råd att riskera vår teknologiska självständighet eller vårt inflytande över hur AI utvecklas och används globalt.

Högrisk-AI måste regleras, men till exempel osäkerheter kring hur upphovsrättslig attribution ska efterlevas och regleringen genomdrivas i praktiken medför stora konsekvenser. Detta har gjort att vi nu missar kritiska framsteg i öppna modeller, där Meta är ett bra exempel. Samt att många företag flyttar sin utveckling utanför EU. Detta hämmar vår konkurrenskraft, vilket knappast var EU:s avsikt. Vad vi behöver är ett regelverk som fokuserar på högrisk-AI, där säkerhet och ansvarsfull användning garanteras utan att utesluta oss från viktiga framsteg – något som är fullt möjligt om man samverkar med tekniska experter när man skapar regleringar. Detta måste itereras och revideras snabbt.