Christoffer Juhlin
Projektledare
Kontakta Christoffer
Vad är egentligen skillnaden mellan en AI-modell och en AI-tjänst, och varför spelar den roll för säkerheten? I debatten om AI i offentlig sektor blandas ofta molntjänster, lokal drift och modellernas beteende ihop. Här reder vi ut begreppen och visar vilka risker som faktiskt avgör.
När nyheten om att en svensk myndighet stoppade användningen av en AI-språkmodell spreds i början av veckan blev rubrikerna snabbt tydliga och i många fall förenklade, med fokus på modellens ursprung. Men det som förtjänar mest uppmärksamhet är inte vilket land en modell kommer ifrån, utan hur den används.I debatten blandas flera olika saker ofta ihop, vilket riskerar att leda till långtgående slutsatser på fel grunder.
Det är stor skillnad på:
När dessa begrepp glider ihop skapas osäkerhet där det egentligen behövs förståelse. I offentlig sektor får det konkreta konsekvenser. Handbromsar dras åt och tekniskt rimliga lösningar stoppas, inte på grund av faktiska risker, utan på grund av begreppsförvirring.
En språkmodell är en teknisk komponent som kan användas på olika sätt. Samma modell kan ofta erbjudas som en extern molntjänst eller köras lokalt på servrar som organisationen själv kontrollerar.
Ur ett säkerhets- och integritetsperspektiv är skillnaden avgörande. Molnbaserade lösningar innebär att data lämnar organisationen och kräver juridiska avtal och tekniska skydd. Lokalt driftade modeller och tjänster innebär att all bearbetning sker inom den egna infrastrukturen. Risker försvinner inte, men de blir mer möjliga att avgränsa och kontrollera.
Det leder till en central insikt:
Om man har full kontroll på data och inget skickas utanför organisationen är en AI-modell inte automatiskt farligare för att den är utvecklad i ett visst land. Samma aktsamhet krävs oavsett ursprung.
Att köra AI lokalt innebär inte att riskerna upphör, men fokus flyttas. Frågor om tredjepartsåtkomst ersätts av frågor om intern kontroll, som behörigheter, loggning, uppdateringar, hantering av felaktiga svar samt eventuell åtkomst till interna system och data.
Detta kräver både teknisk och organisatorisk mognad, men gör det också möjligt att bygga lösningar anpassade till svenska språkförhållanden, juridik och offentliga arbetsflöden.
Men infrastruktur och drift är bara en del av bilden.
Språkmodeller påverkas alltid av sin träningsdata och hur de justerats att svara på olika typer av frågor. Det gäller oavsett om modellen är tränad i Kina, USA eller Europa.
Vissa modeller kan exempelvis undvika eller tona ned politiskt känsliga ämnen, kontroversiella historiska händelser eller samhällskritiska perspektiv. Ofta sker detta subtilt och märks först över tid, genom vilka perspektiv som saknas eller vilka antaganden modellen gör.
Det innebär att även lokalt driftade modeller kan innebära risker om modellens beteende inte förstås och följs upp. Skillnaden är att lokal drift ger bättre möjligheter att testa, granska och vid behov begränsa hur modellen används.
Kontroll över infrastrukturen löser alltså inte alla problem, men den skapar bättre förutsättningar att hantera dem.
Begreppet AI-suveränitet handlar i praktiken mindre om isolering och mer om förmåga. Om att veta var data befinner sig, att kunna granska systemen som används och att ha kompetens att göra egna avvägningar mellan risk, nytta och ansvar.
För offentlig sektor är detta avgörande. AI måste inte bara fungera, utan också kunna förklaras, motiveras och styras över tid.
Den senaste debatten visar behovet av att bli bättre på att skilja mellan teknikens olika lager. När allt reduceras till förenklade motsättningar tappar vi de nyanser som krävs för att fatta kloka beslut och bygga långsiktig kompetens.
Ansvarsfull AI handlar inte om att säga nej till teknik, utan om att veta var, hur och varför man säger ja.
Som Sveriges forskningsinstitut har RISE en särskild roll i att bidra till den förståelsen. Inom RISE AI-partnerskapet utforskar vi tillsammans med offentliga och privata aktörer hur AI kan användas ansvarsfullt på svensk och europeisk infrastruktur, med fokus på kontroll, transparens och lärande.
I slutändan handlar nästa steg mindre om att välja rätt modell, och mer om att bygga den gemensamma kompetens som krävs för ett hållbart och förtroendeskapande AI-användande i offentlig sektor.