Denne siden bruker cookies for å skreddersy innhold og gi deg en bedre brukeropplevelse ved hjelp av statistikk og webanalyse. Du kan velge hvilke cookies du tillater oss å benytte. Funksjonelle cookies kan ikke fjernes, da disse er nødvendig for funksjonen av nettsiden. Du kan lese mer om hva dette innebærer i vår personvernserklæring/cookie policy.
Kunstig intelligens, en pådriver eller en trussel for likestilling?
Det diskuterte vi under CARE Talks på Mesh i Oslo 22. november.
Gikk du glipp av sendingen? Se hele opptaket her:
Bruk av kunstig intelligens (KI) byr på enorme muligheter til å forbedre tjenester og effektivisere ressursbruk i Norge. Men forskning viser at vi ennå ikke helt vet hvilken påvirkning kunstig intelligens har på likestilling.
I enkelte sektorer har det vært eksempler på algoritmer som er alvorlig kjønnsdiskriminerende, og bruken av disse kan dermed forsterke kjønnsforskjeller.
–
CARE inkluderer teknologi og innovasjon i arbeidet med å styrke kvinners økonomiske rettigheter. Det handler blant annet om tilgang til mobiltelefoner, banktjenester og informasjon.
Kaj-Martin Georgsen, generalsekretær i CARE Norge
Generalsekretær CARE Norge, Kaj-Martin Georgsen. Foto: CARE
Mulighetene som følger anvendelsen av kunstig intelligens, er viktige for oppnåelsen av bærekraftsmålene. Det kan ha stor effekt på tilgangen til helsetjenester og like muligheter mellom kjønnene.
–
Men da må vi sørge for at bruken av algoritmer skjer på en rettferdig måte!
Mari Serine Kannelønning forsker på kunstig intelligens i helsesektoren ved OsloMet
Et engasjert panel diskuterte utfordringer og løsningsforslag knyttet til likebehandling ved bruk av kunstig intelligens.. Foto: CARE
Ny rapport: Kunstig intelligens og likestilling i helsestjenesten
PA Consulting har i samarbeid med CARE Norge gjennomført en studie om bruk av kunstig intelligens i den norske helsetjenesten og de tilhørende etiske problemstillingene.
Rapporten er et resultat av en rekke intervjuer med helseeksperter, KI-leverandører og klinikere med fokus på å undersøke dagens anvendelse av kunstig intelligens, vurdering av dagens håndtering av bias, og kartlegging av hvor det kan være risiko for kjønnsbias.
Jo Winding Harbitz i PA Consulting presenterte noen av rapportens funn.
Noen av funnene ble vist under sendingen. Hele rapporten blir lansert i februar 2023.
Seks risikofaktorer for kjønnsbias
Det er mangel på bevissthet og forståelse av kjønnsbias, blant leverandører av KI-løsninger til norsk helsesektor
For leverandører av KI-løsninger er det manglende insentiver til å prioritere fokus på å teste for bias (inkl. kjønnsbias) utover dagens CE-ordning
Få bruker etiske rammeverk i utviklingen av KI-løsninger
Innkjøpere av KI-løsninger tar i en viss grad for gitt at bias har blitt håndtert gjennom CE-merkingsprosessen
Det er uklart hvor ansvaret for validering ligger, og hvordan en ideell ansvarfordeling bør se ut
Algoritmene til flere KI-løsninger har manglende forklarbarhet og tolkbarhet. Manglende transparens kan hindre oppdagelsen av kjønnsbias
Seks tiltak som skal ruste helsetjenesten med kunnskap og verktøy for suksessfull bruk av kunstig intelligens:
Representasjonsmangfold og komplementær kompetanse i team som utvikler og leverer KI-løsninger
Kunnskapsdeling og bevisstgjøring om oppdagede kjønnsbias
Økt grad av forklarbarhet, transparens og sporbarhet i KI-løsningene
Tilgjengeliggjøring av etiske rammeverk gjennom praktiske guider
Biastesting som en egen del av standard risikovurdering for å oppdage bias knyttet til bl.a. kjønn, etnisitet og geografi
Tydeligere forklaring av hva et CE-merket produkt innebærer, og hvilke krav som stilles til den som skal det i bruk
Les mer når hele rapporten lanseres i februar 2023.