Kunstig intelligens, en pådriver eller en trussel for likestilling?

Det diskuterte vi under CARE Talks på Mesh i Oslo 22. november.

Gikk du glipp av sendingen? Se hele opptaket her:

Bruk av kunstig intelligens (KI) byr på enorme muligheter til å forbedre tjenester og effektivisere ressursbruk i Norge. Men forskning viser at vi ennå ikke helt vet hvilken påvirkning kunstig intelligens har på likestilling.

I enkelte sektorer har det vært eksempler på algoritmer som er alvorlig kjønnsdiskriminerende, og bruken av disse kan dermed forsterke kjønnsforskjeller.

«CARE inkluderer teknologi og innovasjon i arbeidet med å styrke kvinners økonomiske rettigheter. Det handler blant annet om tilgang til mobiltelefoner, banktjenester og informasjon.» Kaj-Martin Georgsen, generalsekretær i CARE Norge
Artikkelbilde
Generalsekretær CARE Norge, Kaj-Martin Georgsen. Foto: CARE

Mulighetene som følger anvendelsen av kunstig intelligens, er viktige for oppnåelsen av bærekraftsmålene. Det kan ha stor effekt på tilgangen til helsetjenester og like muligheter mellom kjønnene.

«Men da må vi sørge for at bruken av algoritmer skjer på en rettferdig måte!» Mari Serine Kannelønning forsker på kunstig intelligens i helsesektoren ved OsloMet
Artikkelbilde
Et engasjert panel diskuterte utfordringer og løsningsforslag knyttet til likebehandling ved bruk av kunstig intelligens.. Foto: CARE

Ny rapport: Kunstig intelligens og likestilling i helsestjenesten

PA Consulting har i samarbeid med CARE Norge gjennomført en studie om bruk av kunstig intelligens i den norske helsetjenesten og de tilhørende etiske problemstillingene.

Rapporten er et resultat av en rekke intervjuer med helseeksperter, KI-leverandører og klinikere med fokus på å undersøke dagens anvendelse av kunstig intelligens, vurdering av dagens håndtering av bias, og kartlegging av hvor det kan være risiko for kjønnsbias.

Artikkelbilde
Jo Winding Harbitz i PA Consulting presenterte noen av rapportens funn.

Seks risikofaktorer for kjønnsbias

  • Det er mangel på bevissthet og forståelse av kjønnsbias, blant leverandører av KI-løsninger til norsk helsesektor
  • For leverandører av KI-løsninger er det manglende insentiver til å prioritere fokus på å teste for bias (inkl. kjønnsbias) utover dagens CE-ordning
  • Få bruker etiske rammeverk i utviklingen av KI-løsninger
  • Innkjøpere av KI-løsninger tar i en viss grad for gitt at bias har blitt håndtert gjennom CE-merkingsprosessen
  • Det er uklart hvor ansvaret for validering ligger, og hvordan en ideell ansvarfordeling bør se ut
  • Algoritmene til flere KI-løsninger har manglende forklarbarhet og tolkbarhet. Manglende transparens kan hindre oppdagelsen av kjønnsbias

Seks tiltak som skal ruste helsetjenesten med kunnskap og verktøy for suksessfull bruk av kunstig intelligens:

  1. Representasjonsmangfold og komplementær kompetanse i team som utvikler og leverer KI-løsninger
  2. Kunnskapsdeling og bevisstgjøring om oppdagede kjønnsbias
  3. Økt grad av forklarbarhet, transparens og sporbarhet i KI-løsningene
  4. Tilgjengeliggjøring av etiske rammeverk gjennom praktiske guider
  5. Biastesting som en egen del av standard risikovurdering for å oppdage bias knyttet til bl.a. kjønn, etnisitet og geografi
  6. Tydeligere forklaring av hva et CE-merket produkt innebærer, og hvilke krav som stilles til den som skal det i bruk

Les mer når hele rapporten lanseres i februar 2023.