akmal januar 21, 2019

Innlegget leses best på den opprinnelige studentbloggen

Etter forelesning nr. 2 var det noe som vekket meg. Vi snakket litt om etikk i klassen. Hva er etisk riktig? Etikk kommer fra det greske ordet «ethos» som betyr sedvane eller skikk. Det går ut på hvordan vi bør forholde oss til i samfunnet, og hvordan vi skal leve. Men det er ikke menneskelig etikk vi snakket om, men etikk når det gjelder at fremtidige roboter skal ta etiske valg for oss mennesker.

Det er flere steder slike ting faktisk skjer. Vi har et
eksempel i helse, der en person som lå i koma, og det ble vurdert om pluggen
skulle tas ut eller ikke. Legen mente at de burde dra pluggen, mens en
datamaskin sa at de ikke skulle gjøre det. Vet dere hva som skjedde? Maskinen
hadde rett! Personen våknet opp  i løpet
av 1 år! Maskinen sa faktisk at personen vil våkne i løpet av 1 år! Dette er
ikke et tilfelle, men flere tilfeller der folk våknet opp fra koma når maskinen
sier det. Vi kan dessverre ikke si noe om de tilfellene der maskinen blir slått
av på folk som er i koma, men WOW! Dere kan lese om dette i en artikkel i
Dagbladet: (https://www.dagbladet.no/nyheter/legene-sa-nei-ai-dataene-sa-ja-sa-vaknet-koma-pasientene/70189625)

Her kan vi stille spørsmål, hva med der hvor maskinen sier
nei, og legen sier ja? Hvordan kan vi vite hva som er det rette å gjøre? Vi
legger våres liv i kunstige hendene til maskinene…

Et annet sted dette har blitt testet er innenfor rettssaker.
Tenk deg at i fremtiden blir du bare plassert i et rom, der du har en stor
skjerm foran deg, og der kommer det opp det du er beskyldt for, og hva slags
straff du får. Ingen måte å snakke seg ut av det, forklare seg, eller noe
slikt. Det er bare en datamaskin som sier til deg at «dette er din straff»
basert på din handling, din profil og din historikk. Men dette er en
virkelighet i enkelte steder i USA. De mener at kunstig intelligens har en
bedre dømmekraft enn det vi mennesker har, og den vil være rettferdig. Dere kan
lese om dette i en artikkel på NRK sine nettsider: (https://www.nrk.no/ytring/snart-kan-du-dommes-av-kunstig-intelligens-1.13586467)

Kunstig intelligens spres seg til alle hjørnene i verden, og
prøver å dekke alle behovene til menneskene, men kan vi forvente at den tar de
etiske valgene som vi ønsker at den skal ta? Nå er det veldig mye snakk om
selvkjørende biler, og dette skal føre til tryggere kjøring, og mindre ulykker
og uhell. Men her kommer også etikken inn i bildet. La oss si at vi blir kjørt
av en selvkjørende bil, og det er en person som går over veien. Det er en trang
vei med fjellvegger på begge sider. Bilen får nå to valg. Første er å kjøre inn
i fjellveggen, å risikere livet til personen som er i bilen, eller kjøre ned
den personen som er på veien, for å redde personen som er i bilen! Hva ville du
gjort?

Forestill deg et annet senario, der det er 2 personer som
krysser veien. Veien er bred nok til at du kan treffe en av personene, eller
møte veggen. Hva gjør du da? Og for å gjøre ting verre, ene personen er et lite
barn på 6-7 år, og den andre er en eldre person på 60 årene. Hva velger bilen,
og hva ville du valgt? Hvem lager disse etiske reglene til denne bilen? Det har
også blitt stilt dette spørsmålet i forskjellige deler av verden, og det er
utrolig hvor stor forskjell det er på svaret, ut ifra hvor du spør dette
spørsmålet!

Er vi virkelig klare for AI? (AI: Artificial Intelligence,
Kunstig intelligens)