Kristina Knaving
Fokusområdesledare Den uppkopplade individen-Senior forskare och interaktionsdesigner
Kontakta Kristina
År 2035 sitter jag i Göteborg och söker residéer med ett AI-verktyg byggt på internationell forskning, levererat av europeiska och svenska aktörer. AI:n står på min sida och skyddar mina data. På jobbet avlastar AI både rutinuppgifter och simuleringar. Sverige arbetar sex timmar per dag och jag hjälper en dag i veckan på ett äldreboende.
Jag blev inbjuden att reflektera över Sveriges väg mot inkluderande AI – en framtid där tekniken stödjer mänskliga beslut och speglar våra gemensamma värderingar. I den här texten föreställer jag mig ett 2035 med mångsidiga, transparenta och kulturellt anpassade AI-system, utvecklade genom svenskt och europeiskt ledarskap. Utbildning, bra styrning och robust infrastruktur kan göra visioner som denna möjliga, och säkerställa att AI-lösningar blir verktyg vi kan lita på, som hjälper människor och bidrar till ett mer, inte ett mindre, rättvist samhälle.
Vi kan inte bara ta kortsiktiga beslut om vi vill leva väl. Att föreställa sig sitt framtida jag och utveckla empati med den person vi kommer att vara hjälper oss att skapa en bättre målbild och ta beslut för att nå långsiktiga mål, och få viljan att ta svåra jobbiga beslut som leder dit. Vad behöver våra framtida jag? Kommer att tacka oss för de val vi gör nu? Hur vill vi värna vår demokrati, vår hälsa och framtida hållbarhet, och hur skall vi hantera nutida och framtida teknologier för att nå dit?
Just nu fattar vi beslut som kommer att forma hur AI ser ut år 2035. Kommer det att vara några få globala system som vi helt förlitar oss på, med värderingar och biaser vi inte kan påverka? Eller kommer vi ha byggt något som speglar svenska och europeiska värderingar – system vi kan förstå, ändra och lita på?
Jag har länge argumenterat för att vi behöver många olika AI-modeller eftersom mångfald innebär resiliens. AI-modeller är inte objektiva – de bär med sig värderingar, biaser och kunskapsluckor från sina träningsdata och utvecklare. Men precis som biologisk mångfald gör ekosystem mer robusta, gör en mångfald av AI-system från olika länder och kulturer vår informationsinfrastruktur mer motståndskraftig.
År 2035 innebär inkluderande AI att svenska forskare och organisationer bidrar till denna mångfald i stället för att enbart konsumera teknologi utvecklad på andra håll. Det innebär att vi har investerat i grundmodeller anpassade till svenska språk och svensk kultur, tränade på data som speglar våra perspektiv och prioriteringar. Många av dessa modeller är öppen källkod - transparens möjliggör granskning och demokratiskt inflytande över hur systemen riktas och för att människor och länder världen över kan dra nytta av dem.
Vi kan aldrig göra AI helt säker – lika lite som vi någonsin gjort bilar helt säkra. Men vi gav inte upp på bilen; vi byggde robusta system runt den. Biltillverkare försöker göra fordonen så säkra som möjligt, men vi krocktestar också bilar, kräver körkort, utformar vägar för säkerhet, stöttar försäkringar, etablerar trafikregler och bygger räddningssystem. Teknologin är bara en del – den samhälleliga robustheten skapas av infrastrukturen runt den.
Samma princip gäller AI. I min vision för 2035 innebär inkluderande AI att vi har investerat inte bara i säkrare teknik, utan i utbildning och livslångt lärande så att människor kan anpassa sig när AI förändrar arbete och samhälle. De människor vars data används i AI är del i vinsterna. Vi har stärkt trygghetssystemen för dem vars jobb förändras eller försvinner. Vi testar AI för att säkerställa att systemen inte diskriminerar. Vi har byggt robust cyber- och informationssäkerhetsinfrastruktur som kan hantera deepfakes och syntetiskt innehåll. Vi har skapat verifieringssystem och medie- och informationskunnighetsprogram som hjälper människor att navigera i ett informationslandskap som i allt högre grad fylls av AI-genererat material och AI-beslut.
Detta är oglamoröst arbete – svårare att finansiera än glänsande tekniska genombrott – men helt avgörande. Det innefattar rigorös testning av AI-system genom hela deras livscykel, från utveckling till användning över tid. Precis som vi inte förväntar oss att Volvo och Toyota ska lösa alla problem kopplade till bilkörning, kan vi inte förvänta oss att teknikföretag ska lösa alla problem som AI skapar. Vi som samhälle måste formulera vad vi vill kräva – och dessa krav måste vara specifika och förankrade i hur tekniken faktiskt fungerar.
Att nå 2035 kräver praktiska steg redan idag. De flesta svenskar använder redan generativ AI – ofta som "skuggteknik" som arbetsgivare och institutioner inte officiellt erkänner. I stället för att låtsas att detta inte sker behöver vi inkludera användarna i informerad praxis.
AI-kunnighet år 2035 innebär att människor har lärt sig arbeta kritiskt med systemen – inte som sanningstalande orakel, utan som verktyg med specifika styrkor och betydande begränsningar.
De farligaste AI-tillämpningarna är de där systemen fattar beslut om människors liv utan meningsfull mänsklig tillsyn. År 2035 innebär inkluderande AI att vi har etablerat tydliga gränser: AI kan stödja beslut i vård, skola och offentlig sektor, men de slutliga besluten, och ansvaret, ligger hos människor som förstår sammanhanget, kan utöva omdöme och kan hållas ansvariga.
Denna forskning måste inkludera humaniora och samhällsvetenskap. Vi behöver förstå hur AI påverkar samhället, informationsflöden och demokratiska processer – och hur vi skapar meningsfull mänsklig tillsyn.
Framtiden jag beskriver kommer inte av sig själv. Den kräver långsiktiga investeringar i AI-forskning balanserade mellan teknisk utveckling och studier av samhällseffekter. Den kräver tvärdisciplinär styrning som vågar ifrågasätta okritiskt teknikberoende och ställa svåra frågor om vad vi faktiskt vill att AI ska göra.
Framför allt kräver den att vi inser att vi just nu gör val – om vilka system vi använder, vilka beroenden vi accepterar, vilka värderingar vi kodar in och vilken infrastruktur vi bygger runt tekniken. Våra framtida jag år 2035 kommer att leva med dessa val. Låt oss göra dem medvetet, med öppna ögon för både möjligheter och risker, och bygga mot en AI-framtid vi kan forma och lita på.
Fokusområdesledare Den uppkopplade individen-Senior forskare och interaktionsdesigner
Kontakta Kristina