Hoppa till huvudinnehåll
RISE logo

Strategiskt tänk kring transparens kan öka förtroendet för AI-tjänster

Transparens ses som en nyckel till att öka förtroendet för AI-tjänster. Men det handlar inte om att vrida upp informationsduschen till max. Tänk istället strategiskt kring syfte och sammanhang, säger Jacob Dexe, forskare på RISE. Och att de flesta användare inte behöver förstå exakt hur ett AI-system fungerar.

Vinsterna med att effektivisera svenska myndigheters processer med AI värderas till omkring 140 miljarder kronor per år. Störst potential finns inom administration – ekonomihantering, HR, juridik etc – och inom planering och diagnostisering inom vården.

Men än så länge verkar svensken tveksam till direkt AI-beslutsfattande. I rapporten Svenska folket och AI är det bara mellan 15 och 20 procent som anger att de är okej med att algoritmerna tar beslut som påverkar sådant som försäkringspremie, föräldrapenning, pension, lånelöfte och så vidare.

Kan mer transparens vara verktyget för att öka acceptansen för den här typen av datadrivet beslutsfattande?

– Transparens löser inte frågan isolerat, säger Jacob Dexe som i sin forskning bland annat synat vad försäkringsbranschen ser för värde med transparens och hur myndigheter upphandlar så kallade beslutsrobotar.

– Du får ingen tilltro genom att dela en hel databas. Du behöver förklara hur informationen skapas. Paketera, formulera, ge transparensen en riktning för att uppnå ett syfte.

Sätt rätt förväntningar

I praktiken borrar det ner till att veta vem man har som kund. Veta vilka värderingar den har, vad den ser i produkten. Och sedan sätta rätt förväntningar.

– Det finns specialiserade tjänster, som träningsappar, där ett smalt kundsegment har en helt annan förväntan (än i andra appar) som funkar i just det sammanhanget. Men jag skulle kanske inte tycka att det är så fantastiskt om min pulsdata skulle spridas i en annan kontext, utanför min träningsapp, säger han.

– Har kunderna en bild av vad systemet gör som inte stämmer överens med vad som faktiskt sker så kommer de att bli besvikna.

I det här arbetet med att förklara sammanhang och teknik kan flera yrkeskategorier bidra, tipsar Jacob Dexe. Vid sidan av ingenjörer och jurister finns förmodligen andra med mer kunderfarenhet av vilka frågor och förväntningar en användare kan ha.

Du får ingen tilltro genom att dela en hel databas

Mer avancerade system blir svårare att förklara

Jacob Dexe är verksam på RISE-enheten för samhällstransformation. Förhoppningen är att kunna hjälpa organisationer att skapa mer ansvarsfull transparens och förklarbarhet i AI-tjänster.

I takt med att AI-systemen blir allt mer avancerade blir det också svårare att förklara exakt vad som sker under huven. Maskininlärning med hjälp av neurala nätverk liknas ibland med en svart låda där själva processen är dold. En tröst är att det i många sammanhang räcker för en användare att ha vetskap om att något sker och vad det kan innebära.

– Vi har inlärda kontexter hur vi förklarar saker, säger Jacob Dexe och exemplifierar med hur försäkringsbolag förklarar prissättning i en hemförsäkring.

– Du anger ålder, var du bor, försäkringsvärdet och så vidare. Eftersom du ställt en fråga om försäkring så förstår du att processen handlar om någon form av beräkning av risk, utifrån de här variablerna. Då behöver man inte förklara i detalj för att ändå nå ett tillräckligt förklaringsvärde.

Återfå förtroende

Jacob Dexe säger att transparens är ett bra verktyg för att återfå förtroende vid negativa AI-beslut.

– Om du får ett positivt beslut av en AI så innebär det förmodligen att det matchar vad du förväntade dig. Om beslutet inte skulle matcha vad du förväntade dig så kan transparens i hur det negativa beslutet tagits ändå ge en acceptans. Man kan komma tillbaka i samma nivå i förtroende. Däremot ser vi inte att transparens kan öka förtroendet vid ett positivt beslut i samma utsträckning.