Det nya programmet riktar sig till externa forskare, ingenjörer och specialister som vill arbeta med frågor kopplade till AI-säkerhet och så kallad alignment – hur system kan utvecklas i linje med mänskliga värderingar och kontrollmekanismer.
Fellowship-programmet löper från mitten av september 2026 till början av februari 2027 och ska stödja projekt inom områden som robusthet, etik, integritetsskydd och förebyggande av missbruk.
Även frågor som AI-systemens beteende, övervakning och riskhantering lyfts fram som prioriterade forskningsområden.
Extern kompetens i fokus
Satsningen innebär att OpenAI i högre grad öppnar upp säkerhetsarbetet för externa aktörer. Deltagarna får tillgång till resurser, handledning och teknisk kapacitet för att kunna genomföra avancerad forskning.
Initiativet speglar en bredare trend inom AI-industrin, där behovet av oberoende granskning och forskning kring risker lyfts allt oftare – inte minst i takt med att tekniken används i samhällskritiska funktioner.
Växande säkerhetsfråga för branschen
För säkerhetsbranschen är utvecklingen särskilt relevant. AI används i dag inom allt från cybersäkerhet och övervakning till beslutsstöd och kritisk infrastruktur. Samtidigt innebär tekniken nya angreppsytor, där exempelvis automatiserade attacker, manipulation och dataläckor kan få större konsekvenser.
Det nya fellowship-programmet kan därför ses som ett försök att stärka kompetensen och förståelsen kring dessa risker – innan de får bredare genomslag i samhället.
Del av större omställning
Lanseringen sker i ett läge där AI-säkerhet seglat upp som en central fråga globalt. Både myndigheter och företag efterfrågar nu tydligare ramverk för hur avancerade AI-system ska utvecklas och användas på ett säkert sätt.
Genom att investera i extern forskning vill OpenAI bidra till att bygga kunskap och metoder för att hantera de risker som följer med nästa generations AI – en fråga som i allt högre grad berör även säkerhetsbranschen i stort.