Kunsitg intelligens, en pådriver eller en trussel for likestilling?

Kunstig intelligens, en pådriver eller en trussel for likestilling?

Det diskuterte vi under CARE Talks på Mesh i Oslo 22. november.

Gikk du glipp av sendingen? Se hele opptaket her:

Bruk av kunstig intelligens (KI) byr på enorme muligheter til å forbedre tjenester og effektivisere ressursbruk i Norge. Men forskning viser at vi ennå ikke helt vet hvilken påvirkning kunstig intelligens har på likestilling.

I enkelte sektorer har det vært eksempler på algoritmer som er alvorlig kjønnsdiskriminerende, og bruken av disse kan dermed forsterke kjønnsforskjeller.

– CARE inkluderer teknologi og innovasjon i arbeidet med å styrke kvinners økonomiske rettigheter. Det handler blant annet om tilgang til mobiltelefoner, banktjenester og informasjon. Kaj-Martin Georgsen, generalsekretær i CARE Norge
Artikkelbilde
Generalsekretær CARE Norge, Kaj-Martin Georgsen. Foto: CARE

Mulighetene som følger anvendelsen av kunstig intelligens, er viktige for oppnåelsen av bærekraftsmålene. Det kan ha stor effekt på tilgangen til helsetjenester og like muligheter mellom kjønnene.

– Men da må vi sørge for at bruken av algoritmer skjer på en rettferdig måte! Mari Serine Kannelønning forsker på kunstig intelligens i helsesektoren ved OsloMet
Artikkelbilde
Et engasjert panel diskuterte utfordringer og løsningsforslag knyttet til likebehandling ved bruk av kunstig intelligens.. Foto: CARE

Ny rapport: Kunstig intelligens og likestilling i helsestjenesten

PA Consulting har i samarbeid med CARE Norge gjennomført en studie om bruk av kunstig intelligens i den norske helsetjenesten og de tilhørende etiske problemstillingene.

Rapporten er et resultat av en rekke intervjuer med helseeksperter, KI-leverandører og klinikere med fokus på å undersøke dagens anvendelse av kunstig intelligens, vurdering av dagens håndtering av bias, og kartlegging av hvor det kan være risiko for kjønnsbias.

Artikkelbilde
Jo Winding Harbitz i PA Consulting presenterte noen av rapportens funn.

Noen av funnene ble vist under sendingen. Hele rapporten blir lansert i februar 2023.

Seks risikofaktorer for kjønnsbias

  • Det er mangel på bevissthet og forståelse av kjønnsbias, blant leverandører av KI-løsninger til norsk helsesektor
  • For leverandører av KI-løsninger er det manglende insentiver til å prioritere fokus på å teste for bias (inkl. kjønnsbias) utover dagens CE-ordning
  • Få bruker etiske rammeverk i utviklingen av KI-løsninger
  • Innkjøpere av KI-løsninger tar i en viss grad for gitt at bias har blitt håndtert gjennom CE-merkingsprosessen
  • Det er uklart hvor ansvaret for validering ligger, og hvordan en ideell ansvarfordeling bør se ut
  • Algoritmene til flere KI-løsninger har manglende forklarbarhet og tolkbarhet. Manglende transparens kan hindre oppdagelsen av kjønnsbias

Seks tiltak som skal ruste helsetjenesten med kunnskap og verktøy for suksessfull bruk av kunstig intelligens:

  1. Representasjonsmangfold og komplementær kompetanse i team som utvikler og leverer KI-løsninger
  2. Kunnskapsdeling og bevisstgjøring om oppdagede kjønnsbias
  3. Økt grad av forklarbarhet, transparens og sporbarhet i KI-løsningene
  4. Tilgjengeliggjøring av etiske rammeverk gjennom praktiske guider
  5. Biastesting som en egen del av standard risikovurdering for å oppdage bias knyttet til bl.a. kjønn, etnisitet og geografi
  6. Tydeligere forklaring av hva et CE-merket produkt innebærer, og hvilke krav som stilles til den som skal det i bruk

Les mer når hele rapporten lanseres i februar 2023.