Domene og webhotell fra OnNet.no

    Denne artikkelen er del 6 av 6 artikler om Kunstig intelligens

Lese tid (240 ord/min): 10 minutter

Kunstig intelligens

Alle eksperter er i dag enig om en ting. Kunstig intelligens er fremtiden og kommer til å endre såvel samfunnet som næringslivet på en mengde områder.

I dag sitter hundrevis av millioner av mennesker på et kontor som treffer store og små beslutninger. I fremtiden vil disse beslutningene ikke nødvendigvis bli tatt av mennesker, men av maskinelle systemer som er basert på kunstig intelligens. Selv om dette kan gi enorme effektivitetsgevinster, reiser kunstig intelligens også en mengde etiske spørsmål som må besvares på en god måte før vi kan la kunstig intelligens ta over viktige menneskelige beslutninger.

Hva er etikk?

I akademiske miljøer brukes ordet etikk om teoriene som forklarer hva som er riktig eller galtgodt eller ondt, mens begrepet moral brukes for å forklare praktisk bruk av etikken. Når vi snakker om kunstig intelligens blir etikk dermed et spørsmål om:

Hvordan kan vi være sikker på at de maskinelle systemene som baserer seg på kunstig intelligens gir oss etiske svar og beslutninger?

Hvorfor er et etikk et problem for kunstig intelligens?

Ovenstående spørsmål kan også omskrives slik: – Hvordan kan vi være sikre på at kunstig intelligens gir oss etiske svar og beslutninger når vi mennesker selv ikke er enig om hva som er god etikk og etisk riktig i mange sammenheng? Hadde vi vært enige om hva som er god etikk hadde vi ikke hatt så mange fagretninger innen etikken. Ikke bare kan vi dele etikken opp i fire retninger – meta etikknormativ etikkdeskriptiv etikk og anvendt etikk – men innenfor hver av disse retningene finnes det en mengde etiske teorier som prøver å forklare oss hva som er rett og galt, godt og ondt osv. osv. 

Hva som er god etikk varierer ikke bare fra person til person, men også fra kultur til kultur. Hva vi selv anser som god etikk endres også ettersom vi blir eldre og modnes gjennom sosialiseringsprosessen. Det som oppfattes som en moralsk handling av en person kan oppfattes som en umoralsk handling av en annen. Dette er et problem innen kunstig intelligens fordi kunstig intelligens er basert maskinlæring som bygger på algoritmer som er laget av mennesker. Spørsmålet blir derfor: -Hvordan kan vi forvente at kunstig intelligens skal klare å ta moralske beslutninger i alle sammenheng når mennesker selv ikke klarer det? Klarer vi å gjøre kunstig intelligens til mer moralske beslutningstakere enn mennesket? Noen mener dette, mens andre ikke er like sikre.

Matematiske og logiske beslutninger er ikke et etisk problem innen kunstig intelligens

Å la kunstig intelligens treffe matematiske og logiske beslutninger er ikke et etisk problem, da dette er beslutninger som det kun finnes ett riktig svar på. 2 + 2 er alltid 4, og jorden er alltid rundt. Når det gjelder slike spørsmål er det ikke noe problem å lage menneskeskapte algoritmer som brukes av kunstig intelligens til å kalkulerer det rette svarer, da vi alltid kan sette to streker under svaret ved å følge matematiske regler.

Kunstig intelligens kan derfor med hell brukes for å treffe matematiske og logiske beslutninger som f.eks. behandling av lånesøknader, da programmerernes egen personlighet, verdigrunnlag, holdninger og moral ikke påvirker programmeringen av algoritmes utfall. 

Subjektive flerdimensjonale variabler er problemet

De områdene som det er vanskeligst for kunstig intelligens å komme opp med etiske beslutninger på i alle sammenhenger er de beslutningene som omhandler subjektiv flerdimensjonale variabler. Det vil si variabler som ikke kan tolkes direkte, f.eks. psykiske lidelser, hvor vi må utvikle en indikator for å kunne måle variabelen og hvor resultatet av tolkningen vil variere fra person til person. Slike variabler er de som kan skape skjevheter, fordommer og direkte feil.

Flytter vi makten til programmererne?

I fremtiden vil vi antagelig begynne å bruke kunstig intelligens til å treffe beslutninger om ting som f.eks. hvem som skal få trygdeytelser og hvem som skal få gjennomslag for sine søknader i det offentlige. Dette krever en stor grad av menneskelig tolkning, hvor mange forhold må vurderes, før en beslutning kan treffes. Noe som krever at programmererne som lager algoritmene til KI-systemet må tolke reglene som Stortinget har laget og de retningslinjene som forvaltningen følger til daglig, og som er basert på den gjeldende rettspraksis på området.

I ytterste konsekvens kan vi ende opp med at programmererne i praksis blir regelverkutviklerne. Dette fordi når regelverket skal «oversettes» til maskinlesbar kode må det gjøres en rekke detaljerte vurderinger av programmererne uten at jurister eller andre eksperter involveres. Resultatet blir da at den som skriver algoritmen i praksis også styrer hvordan regelverket tolkes og implementeres. Noe som kan endre maktbalansen og hindre åpenhet.

Hvilke etiske prinsipper skal være de gjeldene?

Problemet går langt dypere enn bare å tolke et regelverk, da det alltid er mulig å bli enig om hvordan et regelverk skal tolkes. Det vi først og fremst må bli enige om er hvilke etiske grunnprinsipper som skal gjelde i algoritmene som utvikles. Vi vet alle at det f.eks. er stor forskjell på hvordan en egoist og en altruist vil løse et problem.

Egoisten tenker bare på seg selv og vil velge den løsningen som optimaliseres deres lykke og velvære, mens altruisten aldri tenker på seg selv og vil derfor velge den løsningen som gangner flest mulig rundt dem. Å velge en altruistisk tankegang, hvor vi prøver å finne den løsningen som ganger flest mulig, høres kanskje ut som den mest moralske handlingen ved første øyekast. Men hva skjer når en altruist får problemer og går til annen altruist for å få råd om hvordan de skal løse problemet? Jo, de vil få til svar at de må slutte å bare tenke på andre, og begynne å tenke mer på seg selv. En altruist vil med andre ord råde andre til å være en egoist i sin tenking. Det moralske må derfor være å finne en gylden middelvei, men hvor skal vi da strekke grensen?

I nytteetikken har de prøvd å trekke grense ned å lage et et grunnprinsipp alle handlinger skal vurderes imot for å avgjøre om handlingen er riktig eller ikke: ”- En handling er objektivt sett riktig hvis den frembringer en større mengde lykke enn aktuelle alternativer, tatt hensyn til alle berørte parter”. 

Siden vi her må ta hensyn til “alle berørte parter“, forutsetter nytteetikken at alle klarer å vurdere sine handlinger som: ”Velvillige og upartiske observatører”. Å tro at kunstig intelligens skal være i stand til å sette seg inn i sinnstilstanden til alle som berøres av handlingen for å maksimere lykke eller velferd på en upartisk måte, er i beste fall en optimistisk tanke. For å avgjøre hva som er størst mulig lykke, benytter nytteetikken seg av et velgjørenhet prinsipp som sier at målet med alle handlinger er: ”å maksimere lykke eller velferd for alle berørte parter”. Det prinsippet ikke sier noe om er hva lykke og velvære er. I et KI-system er dette noe programmererne må avgjøre i forbindelse med programmeringen av algoritmen. 

Benyttes velgjørenhet prinsippet direkte på våre handlinger taler vi om handlingsutilitarisme. Her ser vi utelukkende på konsekvensene handlingen medfører, og vi velger den beslutningen som har de beste konsekvenser for flest mulig mennesker i fremtiden. Benyttes prinsippet indirekte på handlingene våre, snakker vi om regelutilitarisme. Her vurderer vi ikke handlingen, men de etiske normer og regler som ligger bak handlingen. Vi spør oss selv om: ”- Hva blir konsekvensene hvis reglen (normen, regelen, handlingen) ble en allmenn lov som alle må følge?

Disse enkle spørsmålene er bare toppen av isfjellet. Jo dypere vi graver oss ned i etikken, jo flere spørsmål dukker opp. Å tenke på dette er essensielt viktig når KI-systemer utvikles, da de etiske retningslinjene systemet bygger sine beslutninger på utgjør grunnmuren i KI-systemet.  

Hvilke etiske retningslinjer finnes i dag?

I dag finnes det ingen etiske retningslinjer som forteller hvilke etiske prinsipper et KI-system skal bygge på. Det eneste som finnes er sju etiske prinsippene som gjelder for utvikling og bruk av kunstig intelligens i Norge:

  1. KI-baserte løsninger skal respektere menneskets selvbestemmelse og kontroll.
  2. KI-baserte systemer skal være sikre og teknisk robuste.
  3. KI skal ta hensyn til personvernet.
  4. KI-baserte systemer må være gjennomsiktige og etterprøvbare.
  5. KI-systemer skal legge til rette for inkludering, mangfold og likebehandling.
  6. KI skal være nyttig for samfunn og miljø.
  7. KI-baserte systemer skal være basert på ansvarlighet og revisjon.

Kan forsterke eksisterende bias og fordommer

Siden det ikke finnes noen retningslinjer for hvilke etiske prinsipper et KI-system skal bygge på blir resultatet at programmererne legger til grunn sine egne personlige etiske retningslinjer istedenfor oppdragsgiverens definerte etiske retningslinjer. Noe som skaper potensielle skjevheter, fordommer og biaser i KI-systemet som kan påvirke hvilke utfall (beslutninger) systemet kommer frem til. 

Imidlertid er det ikke bare programmerernes egne personlige etiske retningslinjer og verdigrunnlag som som påvirker hvordan programmererne skriver kodene. Alt de har lært og opplevd siden de ble født vil kunne være med på å påvirke dette. Vi snakker da om alt fra programmerens kompetanse, personlighet og holdninger til deres preferanser og følelser. Dette kan skape fordommer og skjevheter som blir videreført i kildekoden og forsterket gjennom treningsdataene som skal lære KI-systemet til å treffe de riktige beslutningene.

Dette er en fare, da disse algoritmene i fremtiden i stadig større grad vil bli brukt til å erstatte beslutninger som i dag treffes av eksperter som dommere, leger, ingeniører, politi, advokater og ledere. Selv om noen påstår at dagens KI-systemer er robuste nok til å motstå ekstern manipulasjon, f.eks. følelsesmessig manipulasjon fra mennesker, finnes det allerede en mengde eksempler på at dette ikke er tilfelle i mange situasjoner.

Gjøres det ikke noe med dette problemet står vi i fare for å undergrave vårt ønske om å skape et rettferdig og redelig samfunn. Dette fordi hvis skjevhetene som fører til sosiale fordommer blir bygd inn og reprodusert av KI-systemene vil dette ha en negativ påvirkning på sårbare grupper og forsterke folks fordommer mot disse sosiale gruppene..

Lite egnet til å fange opp samfunnsendinger

Ettersom algoritmene til KI-systemene lærer gjennom å analysere historiske data er dagens KI-systemer lite egnet til å fange opp samfunnsendringer og nye retningslinjer fra forvaltningen og sivilsamfunnet for øvrig. De forsterker bare den eksisterende praksisen. 

Treningsdataene skaper ofte store skjevheter og feil

Et tilbakevendende problem med KI-systemer er at de må trenes opp gjennom å analysere enorme mengder data. Jo mere data de kan analysere før de fatter sine beslutninger, jo mer pålitelige og nøyaktig vil beslutningene også være. Problemet er bare at hvis kildekoden inneholder mangler, skjevheter eller direkte feil så vil disse problemene bare bli forsterket gjennom treningen KI-systemet gjør.

I 2016 annonserte f.eks. Microsoft at selskapet hadde utviklet et KI-system som ville være i stand til å kunne fysisk skjønnhet i mennesker. Selskapet ville derfor avholde en skjønnhetskonkurranse hvor roboter skulle stå for dømmingen. Dessverre viste test resultatene en mistenkelig tendens til å likestille lys hudfarge med skjønnhet. De måtte derfor avlyse skjønnhetskonkurranse. Amazon støtte på et ligende problem og måtte trekke tilbake et automatisert HR-system som nedgraderte alle CV-er med ordet «kvinne i CV-en, da kvinner var definert som ikke kvalifisert for tekniske jobber. Få uker før holdt Amazon på å tråkket i et PR-vepsebol når ansiktsgjenkjenningssystemet som firmaet markedsførte overfor politidistrikter kom i skade for å feilklassifisere afroamerikanske senatorer som kriminelle under systemtestingen. Et annen program som skulle skille hunder og ulver klassifiserte alle hunder og ulver som var avbildet på snø som ulver. Det viste seg at gjenkjente “snø” istedenfor forskjellen mellom ulver og hunder, da de fleste bilder av ulver var med en snøbakgrunn.

Problemet med å bygge modeller ut fra historiske datasett, som treningsdata, er at systemene som trenes opp med disse dataene ender opp med å reprodusere skjevheter og fordommer, med overraskende resultater.

Behandling av personvern

For at et KI-system skal komme opp med gode svar trenger systemet å skanne og analysere enorme mengder data. Ofte er dette data som ligger ute på internett. Spørsmålet er bare om hvor etisk det er å bruke disse dataene uten at de som dataene omhandler har gitt sitt samtykke til dette? Hvordan skal vi sikre at våre personvern rettigheter blir ivaretatt? 

Immaterielle rettigheter

Under treningen vil alle KI-systemer også ta i bruk det andre allerede har skrevet. Dette er et datamateriell som forfatteren eier alle de immaterielle rettighetene til. I dag brukes disse dataene uten at de som eier opphavsrettighetene få noen penger for dette. De blir heller ikke referert til som kilder til opplysningene de deler. Noe som undergraver den enkelte forfatters immaterielle rettigheter til materiellet de har produsert. Hvor etisk er dette?

Vanskelig å klage på avgjørelser kunstig intelligens treffer

Algoritmene som kunstig intelligens benytter i dag er så komplekse at det er ekstremt vanskelig å finne ut hvordan beslutningene til KI-systemene tas og hvor eventuelle skjevheter som kan forårsake feilen eller diskriminering kan ligge. Dette gjelder selv for eksperter innen kunstig intelligens.

Siden det er investert store beløp på å utvikle disse algoritmene kan det være vanskelig å få innsyn i de algoritmene som har kommet frem til beslutningen eller vedtaket. Ønsker man å klage på et vedtak som er fattet av kunstig intelligens holder det ikke å kjøre dataene på nytt igjennom det samme KI-systemet, da systemet nødvendigvis vil gi samme utfall.

De fleste klager på vedtak som blir omgjort i det offentlige er ofte basert på feil som er gjort i prosessen som ledet frem til beslutningen og tolkningen av datagrunnlaget. Dette krever at den berørte må få innsyn til kildekoden som ligger bak beslutningen for å kunne bevise at det er en feil i programmet som er årsaken til en gal avgjørelse. Kun da er beslutningene et KI-system fatter etterprøvbare.

 

Kilder:

https://www.digdir.no/datadeling/flere-vurderingspunkter-i-skjaeringspunktet-mellom-digitalisering-og-regelverk/2871

Du leser nå artikkelserien: Kunstig intelligens

  Gå til neste / forrige artikkel i artikkelserien: << Big Data – kilde til innovasjon og konkurransefortrinn
    Andre artikler i serien er: 
  • Automatisering
  • Kunstig intelligens – en kilde til innovasjon, vekst og økt lønnsomhet
  • Maskinlæring
  • Algoritme
  • Big Data – kilde til innovasjon og konkurransefortrinn
  • Hvilken etikk benytter kunstig intelligens (AI)?