”Somessa jaetut rangaistukset muistuttavat modernia oikeusvaltiota edeltäneiden yhteisöjen tapaa jakaa oikeutta, jonka tavoitteena ei niinkään ole totuuden löytäminen vaan moraalikäsitysten ja yhteisöllisyyden vahvistaminen, toisinaan koston ja pelottelun keinoin. Someoikeus on arkaaista oikeutta, eräänlaista modernia arkaismia: some-oikeus pyrkii vahvistamaan sosiaalista kontrollia, sulkemaan ulos, ja nöyryyttämään, ilman pohdintaa kohtuullisuudesta tai edes syyllisyydestä.”

Alustus! Edellisessä alustuksessani pohdin viranomais- ja oikeusjärjestelmän tekoälyistämisen potentiaalia sekä kyberhallinnon suuntaan otettuja askeleita. Kysymyksessä oli tekoälyn ja algoritmien valjastaminen kansalaisten oikeusturvan lisäämiseen, eli ennustettavampaan, yhdenmukaisempaan, tehokkaampaan ja nopeampaan päätöksentekoon tuomioistuimissa ja hallinnossa.

Kirjoitus käsitteli aihetta, jossa kehitys on jo näkyvää ja sovellukset käytännöllisiä. Mutta kuinka pitkälle tekoälyn soveltaminen oikeudessa voidaan mahdollisesti viedä? Utopististen kuvitelmien lisäksi on syytä pohtia jo nykyään relevanttia kysymystä. Yle uutisoi lokakuun 22. päivä, miten kohua herättänyt lentoyhtiön ratkaisu poistaa väkivalloin matkustaja koneesta, oli koneen tekemä. Kysymys kuuluu, kenellä on vastuu?

Innovatiivisuutta ja normiton yhteiskunta?

Nykyisin Googlen omistama DeepMind-yhtiökehitti oppivan koneen, Alpha Go:n, joka oppi pelaamaan maailman vaikeinta lautapeliä, Gota. Alpha Go:lle annettiin tiedot pelistä sekä mahdollisista siirroista. Alpha Go:n algorimit hyödynsivät koneoppimista.

Alpha Go ei ainoastaan onnistunut päihittämään ihmistä Go-pelissä, jonka on ajateltu olevan liian intuitiivinen peli koneiden opittavaksi, vaan kehitti myös siirtoja, joita ei ole keksitty pelin vuosituhansia pitkän historian aikana.

Alpha Go:n seuraajalle, Alpha Go zerolle annettiin niin sanotusti vain ”pelinappulat ja lauta”, ja se onnistui puhtaasti itseoppimalla päihittämään niin ihmispelaajan kuin edeltäjänsä Alpha Go:n. Tekoälyä kehittänyt työryhmä on pohtinut blogikirjoituksessaan innovatiivisen ongelmanratkaisun mahdollisuuksia esimerkiksi genetiikka- ja lääketutkimuksessa. Miksi ei myös yhteiskuntasuhteissa ja ihmisten välisessä vuorovaikutuksessa?

Tekoälyn potentiaali on innovatiivinen ja tehokas ongelmanratkaisukyky. Julkisessa keskustelussa puhutaan paljon ylisääntelystä ja sääntösuomesta. Vaikka oma – kenties hieman puolueellinen – näkemykseni on, että oikeusnormeilla on tärkeä rooli yhteiskunnassa, samalla on kuitenkin olemassa normeja, joiden tarkoitusta en ymmärrä. Tällaisia ovat esimerkiksi USA:n osavaltioiden huvitusta herättävät, seksiä ja muuta sukupuolista kanssakäymistä koskevat lait. Esimerkiksi Minnesotassa on laki, joka kieltää miestä, jonka henki haisee valkosipulilta, sipulilta tai sardiinilta, harrastamasta seksiä vaimonsa kanssa.

Oikeusteoreetikko H. L. A. Hart on erityisesti yleisiä moraalinormeja ja oikeusnormeja vertaillessaan tuonut esille, miten oikeusnormit limittyvät silloin, kun kysymyksessä on säännöt, joiden olemassaolo on välttämätöntä ihmisten keskinäisen ja rauhanomaisen kanssakäymisen turvaamiseksi yhteiskunnassa.

Tällaisia sääntöjä ovat esimerkiksi väkivallankäytön kielto, tai ainakin sen rajoittaminen, sekä toisen henkilön fyysinen tai hänen omaisuuteensa kohdistuva koskemattomuus. Tällaisten normien olemassaolo ja täytäntöönpano ovat edellytys yhteiskunnan toiminnalle. Mutta samalla Hart nostaa esille, miten yhteiskunnissa on paljon normeja, moraalisia ja oikeudellisia, jotka eivät mitenkään näytä palvelevan tätä tavoitetta. Hart nostaa esimerkiksi nimenomaan seksuaalista kanssakäymistä koskevat säännöt; eikä nyt puhuta viiksistä tai valkosipulihengityksestä, vaan esimerkiksi homoseksuaalisuuden kriminalisoinnista. (Ks. Hart 2012, 174.)

Tällaisesta mielivallasta voitaisiin päästä eroon oikeuskoneen avulla. Oikeudenmukaisuutta valvova tekoäly varmistaa, ettei yksikään ihminen joudu tahtomattaan toisen mielivallan kohteeksi. Lain kirjainta ei tarvittaisi tilanteissa, joissa kaksi aikuista ihmistä eivät halua tai osaa sopia valkosipulin syömisestä. Kaikenkattavan tekoälyn avulla ei tarvittaisi enää oikeutta erotuksena oikeudenmukaisuudesta. Jäljelle jäisi vain oikeudenmukaisuus. Tällainen oikeuskone muistuttaisi jo tekoälytutkija Timo Honkelan visioimaa rauhankonetta, joka sovittelee yksilöiden ja ryhmien välisiä mielipiteitä, huomioiden heidän yksilölliset eettiset näkemyksensä (ks. Heikkinen 2017).

Miten tekoälyn moraali voisi toimia?

Toisaalta, siinä määrin, kun kysymyksessä ei ole vain valkosipulilta haiseva hengitys tai kutittavat viikset, on tekoja ja tapahtumia, joiden voidaan katsoa vaikuttavan laajempaan ihmisryhmään. Nämä teot eivät tuota ainoastaan, tai eivät kenties lainkaan, fyysistä vahinkoa joka kohdistuu toisen ihmisen henkeen, terveyteen tai omaisuuteen. Niillä voi olla laajempikantoisia moraalisia, ja siten yhteiskuntarauhaan ja ihmisten rauhanomaiseen rinnakkaiseloon, ulottuvia vaikutuksia. Mikäli tekoälyn punnittavissa olevat rikkomukset ovat sellaisia, että ne heikentävät rauhanomaisen kanssakäynnin ehtoja, niitä voidaan kuvata yleisen moraalin vastaisina. Tällöin sopivaa sanktiota miettiessään tekoälyn ei tule ottaa huomioon ainoastaan fyysisen vahingon hyvittäminen ja tilanteen korjaaminen, siten kuin vahinkoa ei olisi tapahtunut. Oikeuskoneen on otettava huomioon teon aiheuttaman vahinko ihmisten keskinäiselle luottamukselle.

Miten tekoäly sitten määrittelee ensinnäkin sen, onko rikkomus tapahtunut, ja toiseksi, millainen hyvitys tai rangaistus on riittävä?
Viime kirjoituksessa käsittelin oikeudenmukaisuuden muodollisia kriteerejä. Mikäli formaalin päätöksenteon premissit, eli lainsäädäntö, eivät ole kohdallaan, voi lopputulos olla kaikesta huolimatta epäoikeudenmukainen. Voitaisiinko tekoälyn avulla ratkaista oikeuden sisällöllisiä pulmia, jotka liittyvät oikeudellisen vallankäytön suhteeseen yhteiskunnassa vallitseviin arvoihin, siihen, miten oikeus kytkeytyy moraaliin ja etiikkaan?

Oikeusteoreetikko Alexander Peczenikin argumentaatioteoriassa hyväksyttävyys liittyy vähemmän rationaalisuuden formaaleihin sääntöihin ja enemmän ratkaisujen sisällölliseen, eli materiaaliseen, hyväksyttävyyteen. Sisällöllinen hyväksyttävyys kytkeytyy moraaliin, ja moraalinen hyväksyttävyys kytkeytyy näkemyksiin vallitsevasta tai tavoiteltavasta yhteiskuntafilosofiasta (ks. Peczenik 1983, 1). Nämä ”moraaliset syyt” (ks. Aarnio 1987, 192) ovat aiheuttaneet oikeusteoreetikoille paljon päänvaivaa, mitä tulee oikeuden kiistattomaan oikeudenmukaisuuteen ja hyväksyttävyyteen. Ja vaikka normien sisällölliseen hyväksyttävyyteen liittyvät ongelmat sivuutettaisiinkin, lainsäädännön tiukka soveltaminen saattaa johtaa epäoikeudenmukaiseen lopputulokseen.

Normit ovat aukollisia, eivätkä kykene ottamaan kaikkia mahdollisia olosuhteita ja muuttujia huomioon. Siitä huolimatta, että oikeudellinen ratkaisu pyrkii erilaisten edellisessä kirjoituksessa esille nostettujen rationaalisuuskriteerien avulla turvaamaan, että oikeusratkaisu on ”totta”, olemassa olevat normit, sekä niiden tulkintanormit, eivät aina riitä tuottamaan koherenttia ja täydellistä argumentaatiota oikeudellisen ratkaisun tueksi (Perelman 2000, 1407-1408).

Ihmisten näkemys siitä, onko jokin akti ”rikos”, sekä millaisia seurauksia siitä tulisi olla tekijälleen ovat subjektiivisia. Demokraattisessa yhteiskunnassa nämä subjektiiviset näkemykset välittyvät lainsäädäntöön kansanedustajien kautta. Tämä johtaa kuitenkin siihen, että vain valikoidut näkemykset oikeudesta ja oikeudenmukaisuudesta tulevat huomioonotetuiksi, mikä saattaa tuottaa ongelmia.

Laajempien kansanryhmien osallistaminen on ideaali jo nykyjärjestelmässä. Mielipidekyselyiden käyttäminen lainsäätämisen taustatyönä on lisääntynyt jatkuvasti. Helsingin yliopiston kriminologian ja oikeuspolitiikan instituutti julkaisi kesäkuussa 2017 Oikeusministeriön tilauksesta tehdyn ”oikeustajututkimuksen”, joka arvioi ja vertaili tuomareiden ja tavallisten kansalaisten käsityksiä sopivista rangaistuksista. (ks. Kääriäinen 2017). Tekoälyn avulla kuitenkin jokainen yhteiskunnan jäsen pääsisi osallistumaan oikeudenmukaisuuden määrittelemiseen.

Tekoäly ja some-oikeus arkaaisena oikeutena

Tekoäly voisi porautua kansalaisten tuntoihin oikein kunnolla. Nykyään sitä tekevät jo monet yhteiskuntatieteilijät tehdessään Big Data -tutkimusta, jossa käyttävät aineistonaan sosiaalista mediaa. Yksiselitteisesti hyvä somea tutkiva tekoäly ei kuitenkaan ole. Tai ainakin tämä arvio riippuu siitä, millaisessa yhteiskunnassa haluamme elää. Microsoftin Tay-robotti, joka opetteli matkimaan ihmisiä Twitterissä, muuttui nopeasti raivoavaksi rasistiksi. Microsoftin oli pakko laittaa robotin ohjelma pois päältä ja pyytää sen puheita anteeksi. Jos sosiaalinen media on edustava ihmiskuva, on ihme, että ihmiskunta on säilynyt näin pitkään. Sosiaalisessa mediassa oikeutta jaetaan usein nopeasti ja ankarasti. Tämä tulee selväksi Jon Ronsonin teoksessa So You’ve been Publicly Shamed (2015).

Somessa jaetut rangaistukset muistuttavat modernia oikeusvaltiota edeltäneiden yhteisöjen tapaa jakaa oikeutta, jonka tavoitteena ei niinkään ole totuuden löytäminen vaan moraalikäsitysten ja yhteisöllisyyden vahvistaminen, toisinaan koston ja pelottelun keinoin. Someoikeus on arkaaista oikeutta, eräänlaista modernia arkaismia: some-oikeus pyrkii vahvistamaan sosiaalista kontrollia, sulkemaan ulos, ja nöyryyttämään, ilman pohdintaa kohtuullisuudesta tai edes syyllisyydestä.

Émile Durkheimin typologiaa soveltaen, rikkomus johtaa joko hyvitykseen, joka pyrkii sitä edeltäneen tilan palauttamiseen (restitutiivinen sanktio), tai vastaavanlaisen käyttäytymisen ehkäisemiseen (repressiivinen sanktio) (Jaakkola 1988, 46-47.) Repressiiviset sanktiot ovat erityisen merkittäviä, kun ei ole normeja eikä valvontavaltaa.

Somemyrskytkin näyttävät pyörivän usein tapahtumien ympärillä, jotka eivät ole lailla säädettyjä, mutta jotka kuitenkin rikkovat sosiaalisia normeja. Toisaalta someilmiöiden kipinä syttyy silloin, kun lailla säädetyt ja toimeenpannut rangaistukset nähdään liian lievinä. Twitterin #Metoo -kampanja erityisesti naisiin kohdistuvasta seksuaalisesta häirinnästä, joka on saanut valtavat mittasuhteet ja levinnyt myös virtuaalimaailman ulkopuolelle, lienee tästä jonkinlainen esimerkki. Paikoitellen someilmiöt heijastavat kuitenkin oikeudenmukaisuuden kannalta kyseenalaista lynkkausmentaliteettia.

Pitäisikö tekoälyn analyysin rajoittautua vain jonkin mittapuun mukaan määriteltyihin ”tolkun yksilöihin”, moderneihin filosofikuninkaisiin? Ei. Ensinnäkin Twitterin kaltainen sosiaalinen media kertoo vain rajallisesti ihmisten aidoista tunnoista ja ajatuksista yksilöinä ja ryhmän jäseninä. Oikeuskone 2.0 ei rajautuisi tulkitsemaan kansalaisten tuntoja somen avulla.

Ja toiseksi, vaikka julkinen keskustelu paikoitellen heijastelee lynkkausmentaliteettia, tämä ei yksiselitteisesti tarkoita sitä, että raivoavat kansanryhmät olisivat tyytyväisiä vasta kun rikoksentekijälle käy kuten hänelle todennäköisesti kävisi Game of Thronesissa. Repressiivisten sanktioiden merkitys on vähäisempi modernissa oikeusvaltiossa, joissa oikeutta valvotaan ja sanktioita jaetaan, kuin arkaaisissa yhteiskunnissa. Jos tekoäly valvoo aina ja kaikkialla, ja siihen voidaan luottaa, kenties repressiivisiä sanktioita ei tarvita lainkaan.

Tekoäly voi olla sekä innovatiivinen että tehokas oikeuden ja oikeudenmukaisuuden ylläpitäjä. Tehokkuus ja innovatiivisuus eivät kuitenkaan aina ole toivottavia ratkaisuja. Arkaainen oikeus saattoi olla julmaa, mutta se oli tehokasta. Jos Oikeuskone 2.0 olisi tekoäly, jonka tehtävänä olisi maksimoida maailmanrauha, yksinkertaisin ratkaisu ihmisten välisten kiistojen lopulliseksi ratkaisemiseksi on ihmiskunnan tuhoaminen. Tai vähintäänkin ihmisten autonomian riistäminen tai merkittävä rajoittaminen.

Kysymys kuuluu, millaiset parametrit oikeuskoneelle annetaan. Erityisen vaikeita ongelmia ovat ne, joihin ei pystytä ennakolta varautumaan, koska niitä ei kyetä ennakolta kuvittelemaankaan. Esimerkki: Facebook loi kaksi keskenään keskustelevaa tekoälyä, joiden tavoitteena oli kehittyä hyväksi neuvottelijaksi. Ikävä kyllä, tekoälyille ei annettu mitään syytä pysyttäytyä ihmiskielessä, vaan ne ryhtyivät keskustelemaan keskenään itse kehittämällään, tehokkaammalla kielellä, jota ihmiset eivät ymmärrä. Koe toki keskeytettiin ja ongelma korjattiin, mutta entä jos vastaavanlainen ongelma ilmenee, kun olemme jo riippuvaisia koneesta? Miten sammuttaa jotain, josta olemme täysin riippuvaisia? Tämän utopistisen ongelman lisäksi meillä on asiaan liittyvä relevantti ongelma: kuka on vastuussa, kun kone ”mokaa”?

Tekoäly: kansan palveluksessa?

Tekoälyn houkuttelevuus liittyy tehokkaampaan ja parempaan päätöksentekoon. Sen sovellukset kiinnostavat niin julkista kuin yksityistä sektoria.

Tekoälyn sovellukset oikeudessa ovat tuottaneet muun muassa ”superahdetun” tekoälyjuristin, ROSS:in. Tekoälyn valjastamisella saattaa olla myös positiivisia vaikutuksia päätöstentekijöiden kannatukseen: mikäpäs olisi poliittisesti seksikkäämpää kuin Boston Dynamicsin USA:n armeijalle kehittämä robottikoira Spot? Spot säästää potentiaalisesti niin rahaa kuin ihmishenkiä (ainakin omien). Mutta entä jos tekoäly syyllistyy sotarikokseen?

Päätöksentekoon liittyy paljon riskejä ja vastuuta. Päätöksentekijöiden vastuu on raskas, ja vaikka työtään tekisi parhaan kykynsä mukaan, lopputulos ei aina miellytä kaikkia. Niin tavalliset virkamiehet kuin ylemmän tason poliitikot kohtaavat työssään paljon uhkailua ja häirintää. Tästä uhkailusta ja häirinnästä ovat viime aikoina julkisesti puhuneet muun muassa nykyinen pääministeri Juha Sipilä, valtiovarainministeri Petteri Orpo, entinen pääministeri Alexander Stubb, sekä useat rivikansanedustajat. Tuomarit saavat vihaisia kirjeitä, sähköposteja ja puheluita (ks. Junninen 2005). Kuntapäättäjiin kohdistuvaa uhkailua tutkii paraikaa Kuntaliiton Arttu2 -tutkimusohjelma.

On ymmärrettävää, että päätöksenteon ulkoistamista tekoälylle motivoi nopeamman ja tarkemman päätöksenteon lisäksi halu siirtää vastuuta. Tai ainakin on ymmärrettävää, jos tekoälyä valjastettaessa unohdetaan kysyä, kuka on vastuussa. Alussa esille nostettu esimerkki lentomatkustajan voimakeinoin tapahtuneesta lentokoneesta poistamisesta, on hyvä esimerkki vastuun problematiikasta siirrettäessä päätöksenteko tekoälylle. Nähtäväksi jää, kuka korvaa lentomatkustajalle tapahtuneen vahingon.

Visa Kurki on oikeussubjektiutta käsittelevässä väitöskirjassaan kysynyt, tulisiko älyautolla itsellään olla rajallinen vastuu. Näin ainakin voitaisiin varmistaa haittojen korvaaminen. Tapauksissa, joissa syntynyt haitta ei ole fyysinen, vaan henkinen, tämä tuskin kuitenkaan riittää.

Ja entä automaattinen päätöksenteko julkishallinnossa, jossa kysymys on ihmisten perusoikeuksien toteutumisesta: henkilötietolain (22.4.1999/523) 31 §:n nojalla automaattinen päätöksenteko on sallittu, jos siitä on säädetty laissa, ja automaattiseen päätöksentekojärjestelmään rekisteröidyn oikeuksien suoja varmistetaan.

Verohallinnossa on kuitenkin jo pilotoitu verotuksen robotisointia, ilmeisesti ilman lakia (ks. Liimatainen 2017). Käytännössä läpinäkyvyyteen ja muihin eettisyyttä varmistamiin mekanismeihin liittyy paljon haasteita (ks. Mittelstadt et al 2016, 7). Julkista keskustelua vaatisi sen ratkominen, mihin kaikista mahdollisista sovelluksista investoidaan, ja kuka hyötyy. Samaan aikaan, kun julkinen valta ympäri maailmaa sijoittaa varoja kansalaisten kontrollointiin, tuomioistuimissa jaettava oikeus on kasvavassa määrin maksukykyisimmän oikeutta (ks. Viitanen 2011).

Algoritmin ja siihen liittyvän vallankäytön eettisyyden varmistaminen vaatii monia sellaisia asioita, jotka ovat tuttuja ja nykymallisesta päätöksentekojärjestelmästämmekin: läpinäkyvyyttä, selitettävyyttä ja mahdollisuutta kyseenalaistaa (ks. USCAM 2017). Ne ovat ikävä kyllä myös kysymyksiä, joiden kanssa ihmisillä on nykyäänkin ongelmia, ja jotka eivät yksinkertaisesti ratkea tekoälyn avulla niin kauan kuin tekoälyn luominen on inhimillisestä toiminnasta riippuvainen.

Tekoälyn ja etiikan yhteensovittamiseen on vielä pitkä matka. Ennen kuin tekoälyn kaikki potentiaali voidaan valjastaa ihmiskunnan palvelukseen, olisi syytä selvittää nykyjärjestelmän ongelmat: mistä ongelmat kumpuavat, ja mihin niistä tekoäly voi, ja toisaalta ei voi, tarjota ratkaisua. Ihminen on tekoälyn potentiaalin valjastamisen suurin este. Inhimillisyys muodostaa niin syyn hyödyntää itseämme fiksumpien koneiden kykyjä. Samalla se muodostaa kuitenkin esteen tekoälyn kestävälle hyödyntämiselle. Koneet kyllä oppivat. Kysymys kuuluukin, oppiiko ihminen?

Lähteet:

Hart, H. L. A. (2012). The Concept of Law. Oxford University Press: Oxford. 3rd ed.

Heikkinen, Susan. Rauhantekijä. Suomen Kuvalehti 49/2017, s. 54-57.

Henkilötietolaki (22.4.1999/523)

Jaakkola, Risto (1988). Durkheim ja oikeuden evoluutio. Teoksessa: Tuori, Kaarlo (toim.): Teorioita oikeuden kehityksestä. Esittelyjä ja erittelyjä. Hakapaino Oy: Helsinki, s. 41-56

Junninen, Mika (2004). ’Oikeusviranomaisia uhkaillaan ja painotetaan.’ Haaste 4/2005. (15.4.2017)

Kääriäinen, Juha (2017). Seitsemän rikostapausta: käräjätuomareiden arvioima rangaistuskäytäntö ja väestön rangaistusvalinnat. Katsauksia 21/2017.

Liimatainen, Karoliina. Robottiverokarhu alkaa tarkkailla suomalaisia – Verohallinto haluaa kitkeä vilppiä, kasvattaa valtion tuloja ja korvata ihmistyötä. Helsingin Sanomat 20.8.2017

Mittelstadt, Brent Daniel & Allo, Patrick & Taddeo, Mariarosaria & Wacher, Sandra & Floridi, Luciano (2016). The ethics of algorithms: Mapping the debate. Big Data & Society July-December 2016, 1-21.

Peczenik, Alexander(1983). The Basis of Legal Justification. [A. Peczenik]: Lund.

Perelman, Chaim (2000): The New Rhetoric: A Theory of Practical Reasoning. Teoksessa: Bizzell, Patricia & Herzberg, Bruce (toim.): The Rhetorical Tradition: Readings from Classical Times to the Present. New York: Bedford: 1384–1409.

Ronson, Jon (2015). So You’ve been Publicly Shamed. Picardon: London.

Telaranta, Kari (2017). Enemmän turvallisuutta, vähemmän yksityisyyttä? Politiikasta.fi 28.2.2017.

USCAM (2017). Statement on Algorithmic Transparency and Accountability. Association for Computing Machinery US Public Policy Council (USCAM).

Viitanen, Klaus (2011). Asianajopalkkiot: kilpailu vai sääntely? Edita 2011.

Lisäaineistoa:

Silver, David et al. (2016). Mastering the game of Go with deep neural networks and tree search. Nature 529, s. 484–489.

Silver, David et al. (2017). Mastering the game of Go without human knowledge. Nature 550, s. 354–359.