Doge vs. demokraattisen hallinnon hiljainen vallankumous
Julkishallinnon reformien taustalla vaikuttaa vankka usko siihen, että vain digitalisaation avulla voidaan ratkaista hallinnon byrokraattiset ongelmat.
Doge (Department of Government Efficiency) on oikeastaan digitalisaatioprojekti, jonka tavoitteena on tekoälyä hyödyntävän algoritmisen hallinnon avulla tehdä Yhdysvaltain liittohallituksesta tehokkaampi, lakkauttamalla ”turhia” virastoja, tiukentamalla työntekijöiden kontrollia ja paljastamalla kansalaisten petoksia ja avustusten väärinkäyttöä.
Musk teknoveljiensä lailla uskoo, että hallinnon tuottaman datan avulla pystytään rakentamaan uusi dynaaminen tekoälyjärjestelmä ja sen tuottama automaatio voi korvata suuren osan liittovaltion työntekijöiden tekemästä työstä.
Kansalaiselle virtaviivaistetut järjestelmät ovat näyttäytyneet kasvokkaisten lähipalvelujen katoamisena ja verkkopohjaisten itsepalvelujen lisääntymisenä.
Monissa liberaaleissa hyvinvointivaltioissa ympärimaailmaa on tapahtunut hyvin samankaltainen, mutta paljon vähemmän kohua aiheuttanut hiljainen vallankumous. Julkishallintoa ja palvelujärjestelmiä on tehostettu ja virtaviivaistettu henkilöstä vähentämällä ja ottamalla käyttöön lähes automaattisesti toimivia algoritmisia päätöksentekojärjestelmiä (Peeters 2020; Veale & Brass 2019; Wirtz ym. 2019).
Kansalaiselle virtaviivaistetut järjestelmät ovat näyttäytyneet kasvokkaisten lähipalvelujen katoamisena ja verkkopohjaisten itsepalvelujen lisääntymisenä.
Mitä on algoritminen hallinto?
Algoritmisen hallinnon ja palvelujärjestelmän digitalisaation on sanottu hyödyttävän kansalaisia monin tavoin. Verkkopohjaiset järjestelmät ovat esimerkiksi helpottaneet sosiaalietuuksien hakemista ja veroilmoitusten täyttämistä ilman tarvetta jonottaa valtionvirastoissa. Hakemusten automatisoidun käsittelyn myötä päätöksenteon on luvattu olevan aiempaa nopeampaa, oikeudenmukaisempaa ja läpinäkyvämpää.
Algoritmisia päätöksentekojärjestelmiä kohtaan on esitetty myös kasvavasti kritiikkiä. Osa tutkijoista katsoo, että algoritmiseen hallintokoneistoon siirtyminen ei ole vain tekninen ja byrokraattinen uudistus, vaan se pitäisi nähdä perustavana sosiaalipoliittisena reformina ja uusliberaalin säästöpolitiikan uutena vaiheena.
Dogen laittomista toteutustavoista ja tavoitteista julkisuuteen tihkuvat tiedot vahvistavat osaltaan sitä käsitystä, että toimintaa ohjaa pikemminkin ideologiset tavoitteet kuin pelkkä kustannusten leikkaus.
Dogen laittomista toteutustavoista ja tavoitteista julkisuuteen tihkuvat tiedot vahvistavat osaltaan sitä käsitystä, että toimintaa ohjaa pikemminkin ideologiset tavoitteet kuin pelkkä kustannusten leikkaus. Kansalaisten saamien sosiaalitukien valvonnan tehostamisen lisäksi on epäilty, että Muskin yrityksen kehittämää Grok AI -keskustelubottia käytettäisiin hallinnon työntekijöiden valvontaan, etsimällä Trumpille tai Muskille vihamielisenä pidettyä viestintää.
Algoritmiseen hallintoon siirtyminen liberaaleissa hyvinvointivaltioissa on suurelta osin tapahtunut ilman Dogen kaltaisia laittomuuksia, mutta reformien taustalla on niin hallinnon asiantuntijoiden kuin kansalaisten valvonnan lisääntyminen. Myös Suomessa monien sosiaaliturvan varassa sinnittelevien kansalaisten elämää hallitsee uudenlainen valvontajärjestelmä, joka on luotu sosiaalietuuksien väärinkäytösten vähentämisen nimissä. Hyvin toimeentulevien kansalaisten voi olla vaikea hahmottaa, millä tarkkuudella algoritmiset järjestelmät mahdollistavat vähävaraisten kansalaisten systemaattisen seurannan Suomessa. Julkisen sektorin henkilöstön vähennyksestä on usein ollut seurauksena, että byrokraattista taakkaa on siirretty enemmän kansalaisten itsensä hallinnoitavaksi.
Keskeneräisten ja virheitä tuottavien automaattisten järjestelmien käyttöönotto on aiheuttanut joillekin vähäosaisille kansalaisryhmille valtavia henkisiä ja taloudellisia ongelmia.
Dogen osalta on vielä liian varhaista sanoa, mitä sen aikaansaamasta demokratian kriisistä seuraa, mutta maailmalta löytyy esimerkkejä useista pieleen menneistä algoritmisen hallinnon reformeista. Tällaisten keskeneräisten ja virheitä tuottavien automaattisten järjestelmien käyttöönotto on aiheuttanut joillekin vähäosaisille kansalaisryhmille valtavia henkisiä ja taloudellisia ongelmia. Tunnetuimmat skandaalit lienevät Australian ”Robodebt” ja Hollannin ”Toeslagenaffaire”.
Australiassa vuonna 2016 otettiin käyttöön täysin automatisoitu velkojen arviointi ja takaisinperintäsysteemi, jota kansalaiset alkoivat kutsua ”robodebtiksi”. Järjestelmän massiiviset virheet johtivat siihen, että sosiaaliturvan saajat joutuivat maksamaan olemattomia velkoja, mutta automaattisen takaisinperintäjärjestelmän takia heidän oli vaikea riitauttaa maksujaan. Lopulta robodebtin pysäyttämiseksi Australian hallitusta vastaan nostettiin ryhmäkanne, mutta ennen oikeudenkäyntiä vuonna 2020, hallitus ilmoitti lakkauttavansa ohjelman ja maksavansa takaisin lähes puoli miljoonaa väärin perittyä velkaa sosiaaliturvan saajille. Korvaussumma nousi yli miljardiin Australian dollariin. Tietokirjailija Rick Morton toteaa robodebtiä käsittelevässä kirjassaan Mean Streak, että piittaamattomuus automaation aiheuttamiin inhimillisiin kärsimyksiin osoittaa Australian hallituksen järjestelmällistä halveksuntaa omia kansalaisiaan kohtaan.
Algoritmisiin päätöksentekojärjestelmiin liittyvät epäoikeidenmukaisuuskokemukset voivat synnyttää syvää epäluottamusta ei vain itse algoritmisia järjestelmiä kohtaan, vaan laajemmin liberaalien demokratioiden legitimiteettiä kohtaan.
Algoritmisiin päätöksentekojärjestelmiin liittyvät epäoikeidenmukaisuuskokemukset voivat synnyttää syvää epäluottamusta ei vain itse algoritmisia järjestelmiä kohtaan, vaan laajemmin liberaalien demokratioiden legitimiteettiä kohtaan. Myös Euroopan Unioni on ollut huolissaan siitä, heikentääkö siirtyminen automaattisiin päätöksentekojärjestelmiin kansalaisten luottamusta valtioon, jos valtiolta katoaa ihmiskasvoinen julkishallinto.
Institutionaalinen luottamusmalli: kansalaisen ja valtion välinen (epä)luottamussuhde
Tuore vertaisarvioitu tutkimuksemme esittelee uudenlaisen institutionaalisen luottamusmallin, jonka avulla voidaan analysoida sitä, miten algoritmiset päätöksentekojärjestelmät vaikuttavat kansalaisen ja valtion väliseen luottamussuhteeseen.
Institutionaalista luottamusta on usein tarkasteltu kansalaisten yksisuuntaisena luottamuksena instituutioita kohtaan, mutta uudessa mallissa luottamus ymmärretään kaksisuuntaisena vuorovaikutteisena suhteena. Malli perustuu neljän erilaisen luottamuksen tai epäluottamuksen ulottuvuuden tunnistamiseen liittyen algoritmiseen päätöksentekoon julkisella sektorilla:
- Päättäjien (epä)luottamus automatisoituihin järjestelmiin
- Päättäjien (epä)luottamus kansalaisia kohtaan
- Kansalaisten (epä)luottamus automatisoituihin järjestelmiin
- Kansalaisten (epä)luottamus poliittisiin päättäjiin (mukaan lukien valtion instituutiot, parlamentti, viranomaiset ja poliitikot).
On riittämätöntä mitata vain kansalaisten mahdollista (epä)luottamusta automatisoituja järjestelmiä kohtaan (3) tai kansalaisten (epä)luottamus poliittisiin päättäjiin (4), vaan katse on käännettävä myös päättäjien ja asiantuntijoiden luottamukseen.
Luotettavat algoritmit ovat tärkeitä varsinkin hauraassa asemassa oleville kansalaisille kuten vammaisille, mielenterveyspotilaille, työttömille ja maahanmuuttajille, koska juuri he ovat usein kaikkien riippuvaisempia hyvinvointipalveluista ja sosiaalietuuksista ja siten monin eri tavoin algoritmisten järjestelmien armoilla.
On kysyttävä, miksi ja millä perusteella päättäjät luottavat algoritmisten järjestelmien kykyyn tuottaa neutraaleja päätöksiä. Lisäksi on tarkasteltava aiempaa enemmän sitä, miten poliittisten päättäjien mahdollinen epäluottamus kansalaisia kohtaan ilmenee heidän motiiveissaan automatisoida järjestelmiä. Luotettavat algoritmit ovat tärkeitä varsinkin hauraassa asemassa oleville kansalaisille kuten vammaisille, mielenterveyspotilaille, työttömille ja maahanmuuttajille, koska juuri he ovat usein kaikkien riippuvaisempia hyvinvointipalveluista ja sosiaalietuuksista ja siten monin eri tavoin algoritmisten järjestelmien armoilla.
Päättäjät luottavat automaattisiin järjestelmiin
Institutionaalisen luottamuksen mallin toimivuutta tarkasteltiin tuoreiden tapaustutkimusten avulla. Kokosimme 10 vertaisarvioitua artikkelia vuosilta 2017–2022, jotka käsittelivät julkisten palvelujen automatisoitua päätöksentekoa erityisesti haavoittuvien kansalaisryhmien näkökulmasta (mm. Goggin & Soldatić 2022; Griffiths 2021).
Analysoimme näitä tutkimuksia kysymällä, jos niin miten niissä vastataan neljään eri kysymykseen: (1) Miten päättäjät luottavat automatisoituun päätöksentekoon? (2) Miten poliittisten päättäjien mahdollinen epäluottamus kansalaisia kohtaan ilmenee heidän kiinnostuksessaan ottaa käyttöön automatisoituja järjestelmiä? (3) Miten haavoittuvien kansalaisten ryhmät luottavat automaattisiin järjestelmiin? (4) Miten haavoittuvien kansalaisryhmien luottamus automatisoituihin päätöksentekojärjestelmiin heijastuu siihen, miten he luottavat valtioon ja julkiseen hallintoon?
Tutkiessamme poliittisten päättäjien luottamusta automaatioon, havaitsimme, että suurin osa tutkimuksista käsitteli aihetta vain epäsuorasti, eli se ei ollut varsinainen tutkimuskohde. Kirjallisuusaineistomme pohjalta on kuitenkin perusteltua väittää, että päättäjät ja hallinnolliset toimijat ovat korostuneen luottavaisia (overconfidence) automatisoituihin järjestelmiin, vaikka nämä järjestelmät eivät useinkaan kohtele kansalaisia yhdenmukaisesti ja oikeudenmukaisella tavalla.
Kirjallisuusaineistomme pohjalta on kuitenkin perusteltua väittää, että päättäjät ja hallinnolliset toimijat ovat korostuneen luottavaisia (overconfidence) automatisoituihin järjestelmiin.
Toisekseen vain yhdessä artikkelissa korostettiin selvästi, että automatisoitujen päätöksentekojärjestelmien täytäntöönpanon taustalla vaikutti vahvasti olettamus, että useimmat kansalaiset huijaavat saadakseen etuja, joihin heillä ei ole oikeutta. Tosin useissa artikkeleissa kirjoittajat antoivat ymmärtää, että automatisoitujen päätöksentekojärjestelmien kehittämisen motiivina on ollut päättäjien ja hallinnon toimijoiden epäluottamus kansalaisia kohtaan.
Kolmanneksi havaitsimme, että haavoittuvien ryhmien ääni puuttui lähes kaikista tutkimuksista. Useat artikkelit keskittyivät siihen, miten ja millä perusteella kansalaiset yleisesti luottavat algoritmien hallinnolliseen käyttöön, mutta yksikään kymmenestä tutkimuksesta ei käsitellyt haavoittuvia ryhmien käsityksiä. Tämä siitäkin huolimatta, että päätöksenjärjestelmät kohdistuvat usein ensisijaisesti hauraassa asemassa oleviin ryhmiin ja näin ollen algoritmisten järjestelmien vaikutukset ovat heihin suurempia kuin muihin väestöryhmiin.
Neljänneksi kysyimme, kuinka haavoittuvien kansalaisten mahdollinen epäluottamus automatisoituihin päätöksentekojärjestelmiin heijastuu heidän luottamukseensa poliittisiin päättäjiin ja julkisiin instituutioihin. Tätä kysymystä käsiteltiin tutkimusotoksessamme jälleen niukasti. Monissa tapauksissa kansalaisten kyky puolustaa oikeuksiaan liittyen automatisoitujen päätösten tuottamiin virheisiin osoittautui erittäin heikoksi. Havaintomme on, että kansalaisten vähäiset mahdollisuudet reklamoida automatisoiduissa järjestelmissä havaittuja puutteita heikentävät kansalaisten luottamusta poliittiseen järjestelmään.
Lopuksi kolme pointtia
Uuden institutionaalisen mallin kehittämisen tavoitteena on ollut edistää yhteiskuntatieteellistä tutkimusta automatisoidusta päätöksenteosta ainakin kolmella keskeisellä tavalla.
Ensinnäkin automatisoituja päätöksentekojärjestelmiä ei pidä ymmärtää neutraaliksi byrokraattiseksi työkaluksi julkisella sektorilla vaan affektiiviseksi mediaksi, jolla on kyky sekä lievittää että syventää jännitteitä kansalaisten ja valtion välillä. On tärkeää pohtia, miten hyvinvointivaltion muuttuminen enenevästi algoritmien ohjauksessa toimivaksi koneeksi muuttaa demokratian vastavuoroisia toimintatapoja. Entä miten ajatus ”empaattisesti valtiosta” voidaan sisällyttää tähän alustakapitalismin logiikalla toimivaan valtiorakenteeseen?
Toiseksi institutionaalinen luottamusmalli laajentaa luottamuksen käsitteen käyttöä, siten että sen avulla voidaan arvioida myös viranomaisten ja poliitikkojen luottamusta teknologioihin. Tarkastelemalla päättäjien luottamusta digitalisaation on myös mahdollista tunnistaa päättäjien harjoittaman teknologiapolitiikan perimmäisiä motiiveja ja suhdetta kansalaisiin.
Tarkastelemalla päättäjien luottamusta digitalisaation on myös mahdollista tunnistaa päättäjien harjoittaman teknologiapolitiikan perimmäisiä motiiveja ja suhdetta kansalaisiin.
Kolmanneksi olemme nostaneet esiin haavoittuvat kansalaisryhmät automaattisen hallinnon keskeisinä kohteita ja automatisoitujen järjestelmien avainkäyttäjinä. Näiden ryhmien kokemaa luottamusta tai epäluottamusta pitäisi tarkastella hallinnon digitalisaatiota koskevana ydinkysymyksenä.
Kuten australialaistutkija Terry Carney (The Automated Welfare State (Chapter 5) – Money, Power, and AI) huomauttaa, keskustelu hyvinvointipalveluiden automatisoitujen järjestelmien vaikutuksista syrjäytyneiden kansalaisten sosioekonomisiin oikeuksiin on tuskin edes alkanut.
FT, filosofian dosentti Jaana Parviainen on yliopistotutkija ja filosofi Tampereen yliopiston yhteiskuntatieteellisessä tiedekunnassa. Mainittu vertaisarvioitu tutkimus on osa Parviaisen johtamaa Koneen säätiön rahoittamaa DIG1t0-hanketta.