Gå rett til innhold
<
<
Bruk av kunstig intelligens i saksbehandling deler befolkningen

Bruk av kunstig intelligens i saksbehandling deler befolkningen

Aktuelt

Publisert: 15.06.2022
Oppdatert: 24.08.2022

En ny undersøkelse viser at befolkningen er delte i mange av spørsmålene om bruk av maskinlæring og kunstig intelligens i saksbehandlingen i forvaltningen. De delte holdningene gjelder både bekymring for bruken og hva som er rettferdig fremgangsmåte.

"La oss si at du var i en situasjon hvor du måtte søke NAV om økonomisk stønad. Tror du interessene dine hadde blitt bedre eller dårligere ivaretatt dersom saksbehandleren brukte maskinlæring og kunstig intelligens som hjelp til å fatte beslutningen om økonomisk stønad?"

Slik lyder et av spørsmålene i en undersøkelse forskere i NORCE har gjort av oppfattelsen av bruk av maskinlæring (ML) og kunstig intelligens (KI) i saksbehandlingen hos NAV.

27 prosent svarer noe bedre, mye bedre eller svært mye bedre på om interessene deres hadde blitt bedre ivaretatt med kunstig intelligens og maskinlæring. 32 prosent svarer noe dårligere, mye dårligere eller svært mye dårligere, mens 42 prosent velger den midterste svarkategorien verken bedre eller dårligere.

Forfatterne av rapporten Sveinung Arnesen og Mikael P. Johannesson er ikke overrasket over at befolkningen er delte i spørsmålene om bruken av ML/KI i forvaltningen.

– Å redusere den menneskelige inngripen og automatisere beslutninger som har stor betydning for det enkelte menneske, er forbundet med etiske dilemmaer. På den ene siden gir denne utviklingen store muligheter for å gjøre saksbehandlingsprosesser bedre og mer effektive og i tillegg spare penger. På den andre siden må dette gjøres på en forsvarlig måte slik befolkningen har tillit til at systemet gir lik og rettferdig behandling uavhengig av sosial status, skriver forfatterne.

LES HELE RAPPORTEN HER

Fremmed for mange

I undersøkelsen har forskerne brukt svar fra et representativt utvalg på 2000 innbyggerne i Norge. De har blitt spurt om deres kontakt med, kjennskap til og oppfatninger om NAV. Etterpå har de blitt spurt om deres oppfatning av ML/KI generelt og når forvaltningen tar i bruk disse verktøyene.

– ML/KI er fremmede begreper for flertallet. Mer enn seks av ti innbyggere i Norge har liten eller ingen kjennskap til temaet. De med lav kjennskap til maskinlæring og kunstig intelligens er også mest skeptiske. Det kan altså ha sammenheng med skepsis til det ukjente, forteller Arnesen og Johannesson.

Undersøkelsen viser blant annet at det er viktigere for folk, at saksbehandlerne har variert bakgrunn og er representativ for befolkningens sosiale sammensetning, når man tar i bruk kunstig intelligens i saksbehandlingen. Dette gjelder spesielt når det kommer til utdanningsnivå og arbeidserfaring.

– Vi har en hypotese om at bruk av ML/KI leder til økt fremmedgjøring, og at behovet øker for saksbehandlere som forstår den enkeltes situasjon og kan gripe inn i tilfeller hvor den maskinelle vurderingen ikke tar tilstrekkelig hensyn til kontekst, forklarer Arnesen.

Rettferdige beslutninger?

Et viktig spørsmål knyttet til bruk av ML/KI er om de beslutninger som tas er mer rettferdige. Her har forskerne blant annet målt innbyggernes støtte til det scenariet som kalles ‘statistisk paritet’. I scenariet sikres lik fordeling av et gode blant bestemte undergrupper i samfunnet, ofte valgt ut basert på sosial eller etnisk tilhørighet. Den konkrete saken gjelder bruk av ML/KI for å understøtte en beslutning om hvilke personer blant de sykmeldte som skal få tilbud om dialogmøte med NAV.

Foretrekker respondentene en modell som er mer treffsikker totalt sett, men skeivfordeler på kjønn, eller en som er mindre treffsikker totalt sett, men sikrer at like mange sykmeldte fra hvert kjønn får tilbud om dialogmøte?

– Vi finner at befolkningen er delt omtrent på midten, med en liten overvekt av støtte til å bruke statistisk paritet. Det vil si at de ønsker å bruke en modell som sikrer likebehandling av kjønn, selv på bekostning av lavere treffsikkerhet totalt sett.

Innbyggere bør involveres fra begynnelsen

I de tilfellene hvor marginaliserte grupper opplever at de blir forskjellsbehandlet, kan ML/KI ha en tendens til å bli kritisert, viser forskning fra utlandet. Det er derfor viktig for NAV og andre myndigheter å ta hensyn til dette, når de bruker ML/KI, mener Johannesson.

– At noen opplever å bli urettferdig behandlet er aldri tillitsbyggende, men kanskje ekstra skadelig hvis uretten kan tilskrives “kode-diskriminering”. I disse tilfellene er det enkelt å trekke slutninger om systematisk, strukturell urettferdighet mot bestemte sosiale grupper.

Arnesen understreker igjen, at bruken av maskinlæring og kunstig intelligens i saksbehandlingen er i en tidlig fase, hvor de fleste innbyggerne har liten kjennskap til tematikken.

– Derfor trenger vi mer forskning for å kunne trekke vidtrekkende konklusjoner om hvordan tillit og legitimitet best kan bevares i overgangen til økt bruk av ML/KI. Men vi ser allerede med det vi har lært fra dette prosjektet at det er fornuftig å skynde seg sakte på dette feltet.

Det bør være grundige innspillsprosesser slik at innbyggere og berørte parter blir involvert allerede i designfasen og slik på et tidlig stadium kan medvirke til å identifisere etiske dilemma, interessekonflikter, og andre potensielle konfliktsaker som kan oppstå senere.

Undersøkelsen er utviklet av forfatterne Sveinung Arnesen og Mikael P. Johannesson, begge forskere i NORCE, mens relevante fagpersoner i NAV har fått tilgang til og kommentert på undersøkelsen. Forskningsrapporten er finansiert av NAV Forskning og Utvikling, mens finansieringen er bidragsfinansiert.

Kontakt

Sveinung Arnesen

Forsker I, fagleder Demokrati og innovasjon - Bergen
sarn@norceresearch.no
+47 56 10 76 03
+47 995 32 496

Relaterte artikler

Se alle artikler

Hold deg oppdatert om forskning og innovasjon fra NORCE

Meld deg på vårt nyhetsbrev