Denne siden bruker cookies for å skreddersy innhold og gi deg en bedre brukeropplevelse ved hjelp av statistikk og webanalyse. Du kan velge hvilke cookies du tillater oss å benytte. Funksjonelle cookies kan ikke fjernes, da disse er nødvendig for funksjonen av nettsiden. Du kan lese mer om hva dette innebærer i vår personvernserklæring/cookie policy.
CARE Talks: Kunstig intelligens, en pådriver eller en trussel for likestilling?
Det diskuterte vi under CARE Talks på Mesh i Oslo 22. november.
Gikk du glipp av sendingen? Se hele opptaket her:
Bruk av kunstig intelligens (KI) byr på enorme muligheter til å forbedre tjenester og effektivisere ressursbruk i Norge. Men forskning viser at vi ennå ikke helt vet hvilken påvirkning kunstig intelligens har på likestilling.
I enkelte sektorer har det vært eksempler på algoritmer som er alvorlig kjønnsdiskriminerende, og bruken av disse kan dermed forsterke kjønnsforskjeller.
–
CARE inkluderer teknologi og innovasjon i arbeidet med å styrke kvinners økonomiske rettigheter. Det handler blant annet om tilgang til mobiltelefoner, banktjenester og informasjon.
Kaj-Martin Georgsen, generalsekretær i CARE Norge
Mulighetene som følger anvendelsen av kunstig intelligens, er viktige for oppnåelsen av bærekraftsmålene. Det kan ha stor effekt på tilgangen til helsetjenester og like muligheter mellom kjønnene.
–
Men da må vi sørge for at bruken av algoritmer skjer på en rettferdig måte!
Mari Serine Kannelønning forsker på kunstig intelligens i helsesektoren ved OsloMet
Ny rapport: Kunstig intelligens og likestilling i helsestjenesten
PA Consulting har i samarbeid med CARE Norge gjennomført en studie om bruk av kunstig intelligens i den norske helsetjenesten og de tilhørende etiske problemstillingene.
Rapporten er et resultat av en rekke intervjuer med helseeksperter, KI-leverandører og klinikere med fokus på å undersøke dagens anvendelse av kunstig intelligens, vurdering av dagens håndtering av bias, og kartlegging av hvor det kan være risiko for kjønnsbias.
Seks risikofaktorer for kjønnsbias
Det er mangel på bevissthet og forståelse av kjønnsbias, blant leverandører av KI-løsninger til norsk helsesektor
For leverandører av KI-løsninger er det manglende insentiver til å prioritere fokus på å teste for bias (inkl. kjønnsbias) utover dagens CE-ordning
Få bruker etiske rammeverk i utviklingen av KI-løsninger
Innkjøpere av KI-løsninger tar i en viss grad for gitt at bias har blitt håndtert gjennom CE-merkingsprosessen
Det er uklart hvor ansvaret for validering ligger, og hvordan en ideell ansvarfordeling bør se ut
Algoritmene til flere KI-løsninger har manglende forklarbarhet og tolkbarhet. Manglende transparens kan hindre oppdagelsen av kjønnsbias
Seks tiltak som skal ruste helsetjenesten med kunnskap og verktøy for suksessfull bruk av kunstig intelligens:
Representasjonsmangfold og komplementær kompetanse i team som utvikler og leverer KI-løsninger
Kunnskapsdeling og bevisstgjøring om oppdagede kjønnsbias
Økt grad av forklarbarhet, transparens og sporbarhet i KI-løsningene
Tilgjengeliggjøring av etiske rammeverk gjennom praktiske guider
Biastesting som en egen del av standard risikovurdering for å oppdage bias knyttet til bl.a. kjønn, etnisitet og geografi
Tydeligere forklaring av hva et CE-merket produkt innebærer, og hvilke krav som stilles til den som skal det i bruk
Les mer når hele rapporten lanseres i februar 2023.