Hyppää pääsisältöön

Julkisten arvojen ja ihmisoikeuksien tulee ohjata tekoälyn suunnittelua ja käyttöä

Julkaistu 13.6.2023
Tampereen yliopisto
Kaksi digitaalisesti kuvitettua vihreää pelikorttia valkoisella pohjalla, kirjaimet A ja I isoilla kirjaimilla ja pienet kalligrafiat muokattujen valokuvien päällä.
Kuvitus: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0.
Tekoälyyn liittyvät eettiset ja juridiset huolet, riskit ja ongelmat ovat herättäneet runsaasti keskustelua viime vuosina. Tampereen yliopistossa tehty tutkimusraportti esittää tukipilareita tekoälysovellusten eettiseen suunnitteluun, kehittämiseen ja käyttöön. Raportti korostaa jaettuja julkisia arvoja sekä selkeää ja toimeenpanevaa lainsäädäntöä, joka turvaa samalla ihmis- ja perusoikeuksia.

Filosofian alaan kuuluvassa tutkimusraportissa tarkastellaan tekoälyn etiikan kehityssuuntia viime vuosien ajalta. Tutkimus kuvaa monitasoisen, tekoälysovellusten koko elinkaaren kattavan lähestymistavan tekoälyn etiikkaan.

Filosofian väitöskirjatutkija Otto Sahlgrenin tutkimusraportti julkaistiin osana Tampereen yliopiston monitieteellistä hanketta Kaupunkiseudun ihmiskeskeiset tekoälyratkaisut (KITE). Hankkeessa tutkittiin ihmiskeskeistä tekoälysuunnittelua ja kehitettiin tekoälyratkaisuja yhteistyössä eri sidosryhmien, kuten Pirkanmaan pieni- ja keskikokoisten yritysten kanssa. Etiikka on yksi keskeinen näkökulma, joka painottuu ihmiskeskeisessä suunnittelussa.

– Eettisiä ohjeistuksia ja periaatteita tekoälylle on esitetty runsaasti viimeisen vuosikymmenen aikana. Hankkeessa tarkastelimme, miten niissä esiintyvät keskeiset arvot ja periaatteet voitaisiin tiivistää ymmärrettäväksi kokonaisuudeksi kuitenkaan vähättelemättä tekoälyä koskevien eettisten kysymysten monimutkaisuutta, Sahlgren sanoo.

Raportissa esitellään neljä yleistä periaatetta tekoälyn suunnittelusta, kehittämisestä ja käytöstä. Kokonaisuudessa tulee:

  • Välttää tarpeettomia ja suhteettomia haittoja ja vahinkoa ihmisille, eläimille ja ympäristölle.
  • Turvata ja edistää sitä, mikä on hyvää ihmisille, eläimille ja ympäristölle.
  • Suojella ja kunnioittaa ihmisten vapautta, autonomiaa ja ihmisarvoa.
  • Noudattaa soveltuvaa lainsäädäntöä, huomioida vaikutuksenalaan kuuluvien ihmisten ja sidosryhmien intressit. Vastaavasti tulee turvata ja edistää oikeudenmukaisuuden toteutumista sen eri muodoissa.

Mainittujen periaatteiden tulisi ohjata vastuussa olevien ihmisten valintoja ja toimintaa koko tekoälysovelluksen elinkaaren läpi. Se alkaa sovelluksen ideoinnista ja loppuu, kun sovellus poistetaan käytöstä. Todellisuudessa eettisyys edellyttää kuitenkin paljon muutakin.

– Eettiset periaatteet ovat tärkeä ensimmäinen askel, mutta eettisesti kestävä tekoäly edellyttää myös lainsäädäntöä ja konkreettisia toimia organisaatioissa, Sahlgren painottaa.

Raportissa pyritään huomioimaan erilaiset toimijat ja toiminnan tasot sekä tarjoamaan monipuolisesti niin teoreettisia oivalluksia kuin käytännöllisiä apuvälineitä.

– Tekoälyyn liittyviä eettisiä näkökulmia onkin hyvä tarkastella eri tasoilla, kuten lainsäädännössä ja organisatorisella tasolla. Sama koskee sovelluksia kehittäviä ja käyttäviä yksilöitä ja tiimejä.

Tekoälyä koskevan lainsäädännön tulee turvata ihmis- ja perusoikeudet

Tekoälyn kehittämistä ja käyttöä koskevaa lainsäädäntöä kehitetään parhaillaan muun muassa tekoälysäädöksen muodossa. Sahlgrenin raportissa suositetaan, että lainsäädäntöön asetettaisiin muun muassa oikeuksia tekoälyn vaikutuksenalaan kuuluville henkilöille. Kehittäjillä ja päättäjillä tulisi olla erityisiä velvollisuuksia varmistaa ihmis- ja perusoikeuksien toteutuminen. Raportti ehdottaa myös kieltoja tekoälysovelluksille tai käyttötapauksille, jotka loukkaavat näitä oikeuksia.

– Esitän raportissa tekoälysäädöksen tapaan täyskieltoa muun muassa ’sosiaaliselle pisteyttämiselle’. Tekoälysovellusten lainmukaisuuden ja eettisen kestävyyden varmistamiseksi tulisi myös asettaa erityisiä oikeuksia ja velvollisuuksia, Sahlgren toteaa.

Yksilöllisillä oikeuksilla voitaisiin varmistaa, että ihmiset voivat kiistauttaa päätöksiä, joita heistä on tehty tekoälysovellusten avulla. Ihmisillä olisi mahdollisuus saada tietoa heitä koskevista päätöksistä. Sahlgrenin mukaan organisaatioilla tulisi olla myös velvollisuus arvioida esimerkiksi ihmisoikeus-, tietosuoja-, yhdenvertaisuus- ja ympäristövaikutuksia ennen sovellusten käyttöönottoa ja säännöllisesti niiden käytön aikana.

Tutkimusta ja raportin valmistelua ohjannut yhteiskuntafilosofian professori Arto Laitinen sanoo, että eettisten ohjeistusten laatiminen edellyttää sekä etiikan periaatteiden ja oikeuksien tuntemusta että yksityiskohtaista kohdealueen käytäntöjen ja tekniikoiden tuntemusta. Vaikka filosofinen etiikka korostaa samoja yleisiä periaatteita tekoälyssä ja muilla erityisaloilla geenimanipulaatiosta tutkimusetiikkaan, kullakin erityisalueella on silti erityispiirteensä.

– Esimerkiksi niin kutsuttu ’mustan laatikon ongelma’ on tekoälyn eettisesti relevantti erityispiirre.  Millaisissa tehtävissä voimme luottaa järjestelmään, jonka suositusten perusteita emme voi tietää? Toisaalta tuttujenkin eettisten periaatteiden tulee toteutua tinkimättömästi. Emme voi ajatella, että edistyneen teknologian kontekstissa esimerkiksi ihmisoikeuksilla tai luontotuholla ei olisi väliä, Laitinen korostaa.

Eettisiä käytänteitä tarvitaan myös organisaatio- ja yksilötasolla

Raportti korostaa, että etiikan ja vastuullisuuden tulisi näkyä myös paikallisissa, käytännöllisissä konteksteissa, joissa teknologiaa kehitetään ja käytetään.

Tutkijoiden mielestä on tärkeä varmistaa, että vastuuhenkilöillä on tarvittavat taidot, resurssit ja välineet tunnistaa ja edistää oikeita toimintatapoja.

– Tutkimuksissa on todettu, että suunnittelijoilla ja kehittäjillä on usein vaikeuksia soveltaa abstrakteja eettisiä periaatteita käytäntöön, Sahlgren kertoo.

– Periaatteiden tulisi kääntyä toimintaa ohjaaviksi säännöiksi, käytänteiksi sekä yksilöiden eettistä toimintaa tukeviksi apuvälineiksi. Tämä edellyttää sitä, että vastuuhenkilöt tunnistavat ja artikuloivat eettiset tavoitteet ja päämäärät, joita tekoälysovelluksen tulisi heijastaa.

Kaikkia eettisiä ongelmia, jotka nousevat esiin teknologioiden tosiasiallisissa käyttökonteksteissa, ei voida välttämättä tunnistaa etukäteen. Jotta eettiset riskit ja ongelmat voitaisiin tunnistaa tehokkaasti, tarvitaan ymmärrystä tekoälysovelluksesta osana laajempaa sosio-teknistä järjestelmää. Se taas sisältää keskenään vuorovaikutuksessa olevia ihmisiä, teknologioita sekä laajempia yhteiskunnallisia instituutioita ja rakenteita.

Tutkimusraportti tarjoaa runsaasti analyyttisiä työkaluja muun muassa riskinarviointiin sekä monimutkaisuuden hallintaan.

– Olisi kuitenkin tärkeää, että tekoälyä kehittävät tai käyttävät organisaatiot panostaisivat monitieteelliseen, laaja-alaiseen asiantuntijuuteen ja tekisivät aidosti yhteistyötä eri sidosryhmien kanssa. Nämä ovat keskeisiä tapoja edesauttaa eettistä kestävyyttä, Sahlgren sanoo.

Sahlgren ja Laitinen esittelevät raporttia Finnish Internet Forumin keskustelutilaisuudessa Tampereen yliopistolla 19.6.2023.

Tutustu raporttiin

Kuva: Alina Constantin / Better Images of AI