Klassekampen.no
Torsdag 5. april 2018
MENNESKET OG MARGINENE: For et par uker siden krasjet en selvkjørende Tesla i California, og sjåføren døde. Dette har fått flere til å stille nye spørsmål ved slik teknologi. Her ryker Kimi Raikkonen ut for en høyst menneskelig ulykke under Singapore Grand Prix – som han heldigvis overlevde. FOTO: MANAN VATSYAYANA, AFP/NTB SCANPIX
Hvordan takler vi mennesker oppgaver som vi tar for gitt – og hvordan lærer vi dem til maskiner?
Den menneskelige faktor
Hva skjer når to førerløse biler møtes på en smal bru?

Nok en dødsulykke har gitt selvkjørende biler et nytt tilbakeslag. Noen tror at dette bare er midlertidig, og fastholder at førerløse biler vil bli nærmest ulykkesfrie – bare teknikken blir videreutviklet, med bedre sensorer og raskere prosessorer. Men problemet med førerløse biler, som med annen teknologi basert på Kunstig intelligens, ligger ikke i det tekniske. Problemet er at vi ikke skjønner hvordan vi mennesker takler mange oppgaver som vi bare tar for gitt – og derfor tror er enkle, også for datamaskiner.

Fakta:

Selvkjørende biler:

• En selvkjørende bil er i stand til å avkjenne sine omgivelser og navigere uten menneskelig påvirkning. De er utrustet med svak kunstig intelligens.

• I oktober 2015 slapp Tesla Motors en «over the air»-oppdatering til sine Modell S-biler som tillater «nivå 2-autopilot»

• Den 19. mars 2018 ble en kvinne overkjørt og drept av en selvkjørende bil i Tempe i Arizona. Dette er sannsynligvis den første fotgjengeren drept av en selvkjørende bil.

Kilde: Wikipedia

Den sosiale rundkjøringen

Ta for eksempel evnen til å tolke uvant og uklar informasjon. Dette er en evne det antakeligvis har skortet på i ulykkene med selvkjørende biler. Evnen har dels med selve persepsjonen å gjøre. Menneskets synssans har utviklet en fantastisk evne til å automatisk justere lysstyrke, farge, perspektiv, og så videre. Men det har også med tolking av disse signalene å gjøre: Er det bare en lysrefleks, et stykke papir – eller et menneske?

Slikt kan man nok få forbedret. Verre er det med situasjoner som involverer flere aktører, der man – gjerne i løpet av et tidels sekund – må tolke andres intensjoner. Dette skjer stadig i trafikken, som når vi skal inn i en rundkjøring og ser en annen bil på vei inn i samme. Vår bil er nærmere rundkjøringen, vil komme først inn, og har derfor forkjørsrett. Men den andre bilen kjører fortere, og ser ikke ut til å ville bremse. Så hva skal vi gjøre? Det er kanskje tryggest å stanse, selv om vi har retten på vår side.

Men hva ville en førerløs bil gjort? Og hva om begge bilene var førerløse? Det er ikke nok å følge regler, man må også kunne vurdere hva andre vil gjøre. En annen situasjon: Foran en innsnevring i veien (som selvsagt vil kunne dukke opp i framtiden også), stanser to biler opp. Det er kun plass til en bil om gangen. Hvem skal kjøre først? Kjøres bilene av mennesker, vil en av sjåførene gi etter, kanskje grunnet ulike personligheter. Men hvordan vil førerløse biler reagere, om de er utstyrt med samme programmer? Vil de bare blir stående?

Uoverkommelige småting

Av alle menneskelige evner, er det evnen til å vurdere andre som krever mest hjernekapasitet – mye av den store hjernen vår er dedikert til «sosial intelligens». Det handler om å kjenne igjen og vurdere andre, kjenne til vanlige normer for atferd, slik at man kan manøvrere i det sosiale landskapet: inngå samarbeid, eller utmanøvrere andre. Og i brøkdelen av et sekund kunne vurdere om det er venn eller fiende, om det kommer et vennlig klapp på skulderen eller et dødelig stikk. Dette er evner som var mer prekære i andre og farligere tider, men vi bruker noen av dem i trafikken: Vil den andre føreren gi etter, eller ikke?

Vi vet at disse evnene finnes, men vi vet lite om hvordan de fungerer. Noen er medfødte, andre krever læring.

Som regel er den sosiale intelligensen så automatisert at vi ikke er klar over hvilken kognitiv prestasjon den innebærer. Og da skulle det vel ikke være noen sak å sette maskiner i roller som erstatter mennesker i sosiale situasjoner. Det går jo så lett?

Men nei. Når folk får hjerneskader eller mentale defekter som forstyrrer den sosiale intelligensen, som for eksempel de med ulike former for autisme kan oppleve ser vi at selv de «enkleste» ting kan bli uoverkommelige.

Petrovs finger

Dette vil vi også oppleve når vi skal sette inn maskiner i funkjoner som kan kreve sosial kompetanse, som i trafikken – eller som da den russiske oberstløytnanten Stanislav Petrov i 1983 på egen hånd avverget en atomkrig, fordi han mente alle varslingssystemene tok feil, samtidig og at det ikke kunne være noe amerikansk angrep på gang. Derfor trykte han ikke på atomknappen, selv om han skulle – og det viste seg siden å ha vært en falsk alarm. Ville en datamaskin kunne gjøre et slikt valg? Den ville vært programmert til å følge prosedyrene.

Noe som skiller oss ytterligere fra maskinene, er den evnen Petrov viste: å kunne skifte perspektiv, se informasjonen fra en ny vinkel og tolke den annerledes. Som hos Petrov, kan det starte med at vi føler at noe ikke er som det burde være, uten at vi klarer å si hva. Men er følelsen sterk nok, velger vi å tro på den, framfor på dataene. For dataene kan være riktige nok, men som informasjon kan de likevel være gale. Fordi vi som levende vesener tolker data ut fra våre nedarvede verdier og prioriteringer, og prøver å sette dem inn i denne rammen.

Dette skjer ubevisst, når hjernen vår fungerer som den skal. Men spørsmålet gjenstår: kan denne menneskelige faktoren implementeres i førerløse biler? I militære systemer? I samfunnet generelt?

viten@klassekampen.no

Artikkelen er oppdatert: 10. april 2018 kl. 11.25

Klassekampen benytter informasjons­kapsler (cookies) så vi kan gi deg bedre service, og for å holde styr på om du er logget inn på våre tjenester. Du kan lese mer om vår bruk av informasjons­kapsler her.

Lukk