Hoppa till huvudinnehåll
RISE logo
Självkörande bil
Foto: Adobe Stock

AI och värderingar

02 oktober 2023, 08:53

Hur kan man säkerställa att kraftfull AI är korrekt anpassad till mänskliga värderingar? Social och etisk artificiell intelligens, är en viktig fråga inom AI. RISE jobbar med värdefrågor & AI i olika gruppkonstellationer.

En gigantisk utmaning med AI är den moraliska aspekten. Vem är den moraliska expert som AI bör lära sig av? Från vilka data ska AI hämta sin uppfattning om värderingar, och hur ska detta beslutas? Finns det neutrala värderingar? Och vad händer om AI systemet optimerar för något vi inte vill ha? Vem är egentligen ansvarig för beslut, människan eller maskinen? Frågetecknen är många när det gäller moral & etik, systemdesign och AI.

Detta gör RISE

—RISE har flera olika gruppkonstellationer som arbetar med AI och trovärdighet, etik, moral och lagar, berättar Rami Mochaourab som är forskningsledare inom AI & industriella system. Bland annat undersöker vi värderingar som finns inskrivet i GDPR som är viktiga i utvecklingen av AI-system. Det handlar om att identifiera hur ofta AI-system gör fel, hur träffsäkra datadrivna prognoser säkras utan att tulla på människors integritet, och hur beslut från AI-system kan bedömas, presenteras och förklaras på bästa sätt, säger Rami.

Mänskliga värderingar vs maskinella värderingar

När det kommer till människor har vi olika värderingar, vilket också påverkar de beslut vi tar, därför lever vi också olika liv. När en person fattar beslut görs det utifrån vad som är moraliskt viktigt för den individen. En person kan ha hög moral, likaså brist på moral.

”Värderingar kan beskrivas som inneboende åsikter som inspirerar ens beslut, beteende och handlingar.”

Så om vi har olika värderingar, vad är då ”korrekta” värderingar? En utgångspunkt för accepterade mänskliga värderingar är lagar. När det kommer till maskiners värderingar, så skiljer de sig från mänskliga på det sättet att de grundar sig på matematiska och statistiska värderingar. När man vill implementera värderingar till system och teknologi, så behöver man alltså transformera mänskliga värderingar baserade på lagar till tekniska värderingar, som är en stor utmaning.

Dilemmat med att bygga in moral

AI lär sig av data den matas med. Den instrueras att utföra operationer, genom programmering. Avancerade AI-system som ska fatta viktiga beslut, måste programmeras med moraliska teorier, eller testa och lära sig moral själv. Vilka premisser ska vi då ge AI:n för beslutsfattande, och vem bestämmer det här? Det är viktigt att diskutera! 

Värderingar kan bli säkerhetsproblem

Beslut fattade av AI-system kan påverka våra liv, det kan gälla allt från beslut om medicinska diagnoser, straffmätning, bankens lånebeslut, föräldrapenning, eller personaliserad marknadsföring. I situationer där mycket står på spel är det extra viktigt att AI:n fattar rimliga och trovärdiga beslut.

—Vid exempelvis diagnostisering av sjukdomar med hjälp av AI-system så är det en svår balansgång mellan integritet, precision, och prognosers förklarbarhetskvalitet. Ju mer integritet desto osäkrare AI-baserad diagnos, och osäkra AI-beslut kräver en mer robust förklarbarhet. Det som minskar precisionen i AI-beslut är den medvetet genererade osäkerhet som krävs i prognosen, för att skydda individens integritet i datamängden, fortsätter Rami.  

Hur en enkel regel kan bli komplicerad

Till skillnad från människor kan vi inte enkelt förhandla med maskiner om värderingar. Enkla beslut kan bli komplicerade för AI. Hur ska till exempel en självkörande bil fatta etiskt beslut? Mycket makt betyder mycket ansvar. Ju mer data, desto mer information har AI:n för att fatta beslut. Men vad ska värderas högst? Kan det bli så att bilen värderar människor utifrån hälsostatus, ålder, ekonomi? Hur ska man ta ett opartiskt beslut och minimera förlust?

Ett hjälpmedel är något som kallas ”Boundary marking concepts”, som kan användas när det blir debatt vid sociala, etiska och politiska värderingar. Det beskrivs som ett instrument för att markera ”accepterad gräns” för tekniken i förhållande till moralisk acceptans, dvs vad tekniken är tillåten och när förhandling inte längre är öppen.  

Samsyn, och ständigt pågående diskussion

Utvecklingen av AI act bidrar också till samsyn, det är en ny europeisk lag som delar in AI i olika riskkategorier. Tanken är att reglera hur AI får användas ur ett risk- och etiskt perspektiv. När man tar fram den typen av lagar så är det viktigt med olika typer av kompetenser—jurister, socionomer, moraliska filosofer, utvecklare mfl. RISE bidrar även här med sin expertis, i policylabs osv.

Samsyn och samverkan är så pass viktigt för långsiktig hållbar och jämlik AI-utveckling inom samhällets alla områden, att det dessutom finns ett särskilt nätverk, AI-agendan för Sverige, samordnad av Centrum för tillämpad AI vid RISE.

Kontakta oss på RISE om du vill veta mer!

 

Sverker Janson
CAPTCHA

* Obligatoriskt Genom att skicka in formuläret behandlar RISE dina personuppgifter.

2024-03-19

2024-02-06

2023-11-15

2023-10-02

2023-09-12

2023-08-23

2023-06-19

2023-06-19

2023-06-02

2023-05-17

2023-05-09

2023-04-27

2023-04-05

2023-04-04

2023-04-04

2023-03-29

2023-03-16

2023-01-31

2023-01-30

2022-12-06

2022-11-15

2022-10-24

2022-10-21

2022-10-20

2022-10-19