x !
Arkistoitu opetusohjelma 2018–2019
Selaat vanhentunutta opetusohjelmaa. Voimassa olevan opetusohjelman löydät täältä.
FILA8 Lukupiiri: Tekoälyn etiikka 2 op
Myös avoimen yliopisto-opetuksen opiskelijoille
Periodit
I Periodi II Periodi II Periodi IV Periodi
Opetuskieli
suomi
Tyyppi
Aineopinnot
Suoritettavien opintojaksojen kuvaukset opinto-oppaissa
  • FILA8 Etiikka
    Osallistuminen opetukseen
Filosofian tutkinto-ohjelma
Yhteiskuntatieteiden tiedekunta

Yleiskuvaus

Alustava ohjelma ja luettava kirjallisuus

 

1.kerta: Tekoäly, koneoppiminen ja datatiede

Ensimmäisellä kokoontumiskerralla Otto Sahlgren alustaa aiheesta ”tekoälyn, koneoppimisen ja datatieteen perusteet”. Osallistujia pyydetään lukemaan ensimmäistä kertaa varten seuraavat tekstit:

1.”Pattern recognition” (luku 3) teoksesta Alpaydin, E. (2016) Machine Learning. Cambridge (Mass.): MIT Press.

o Koneoppimismenetelmät ja käyttötarkoitukset

2. LeCun, Y., Bengio, Y., & Hinton, G. (2015) Deep learning. Nature, 521(7553).

o Syväoppivat neuroverkot

o Oppimisen muodot

3. “Privacy and ethics” (luku 6) teoksesta Kelleher, J. D. & Tierney, B. (2018) Data Science. Cambridge (Mass.): MIT Press.

o Datatieteen eettiset kysymykset

o Yksityisyys ja datasubjektin yksityisyyden turvaaminen

2. kerta: Algoritmiset vinoumat

Toisella kokoontumiskerralla käsitellään algoritmisia vinoumia: Kuinka vinoumat syntyvät? Minkälaisia eettisesti arveluttavia lopputulemia vinoumat voivat tuottaa? Onko vinoumia mahdollista korjata ja jos on, miten? Tarkastellaan myös lyhyesti algoritmien käyttöön liittyviä episteemisiä ja normatiivisia huolia.

1. Danks, D. & London, A. (2017) “Algorithmic Bias in Autonomous Systems”. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI-17).

o Algoritmiset vinoumat ja niiden taksonomia

o Intervention mahdollisuudet vinoumien estämiseksi

2. Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016) The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679.

o Algoritmien etiikan kysymyksiä

o Episteemiset ja normatiiviset huolet

3. kerta: Tunnistusteknologia, profilointi ja valvonta

Kolmannella kokoontumiskerralla keskitytään tunnistusteknologiaan ja siihen liittyvään eettiseen problematiikkaan. Erityisenä tarkastelun kohteena ovat tunnistusteknologian poliittinen luonne, valvonta, profilointi ja yksityisyys.

1. Luku 1.1. (s. 12–17), AI Now 2018 report.

o Yksityisyys, profilointi ja affektintunnistuksen tieteellinen pohja

2. Introna, L., & Wood, D. (2004). Picturing algorithmic surveillance: The politics of facial recognition systems. Surveillance & Society, 2(2/3), 177-198. 

o Algoritminen valvonta ja sen politiikka

o Huom. kiinnitä huomiota erityisesti eettiseen problematiikkaan, jota artikkelissa esitellään. Kattavampi kuvaus tunnistusteknologian nykytilasta suositellussa lisälukemistossa.  

Suositeltuna (teknisenä) pohjalukemistona myöskin esimerkiksi seuraavat artikkelit:

• Zulqarnain Gilani, S., & Mian, A. (2018). Learning from millions of 3d scans for large-scale 3d face recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 1896-1905).

• Jarvis, P. A., Lunt, T. F., & Myers, K. L. (2005). Identifying terrorist activity with AI plan recognition technology. AI Magazine, 26(3), 73.

4. kerta: Algoritmit ja reiluus

Neljännellä kokoontumiskerralla tarkastellaan algoritmista päätöksentekoa ja reiluutta. Erityisenä tarkastelun kohteena ovat tilastolliset/mittaukseen liittyvät vinoumat sekä niiden suhde laajempiin, ”yhteiskunnallisiin vinoumiin”. Aihe on suhteellisen teknispainotteinen, joten pyrimme sitomaan keskustelua laajempiin yhteiskuntafilosofisiin konteksteihin.

1. Sivut 9–32 teoksesta Barocas, S., Hardt, M. & Narayanan, A. (2018) Fairness in Machine Learning. URL: https://fairmlbook.org/pdf/fairmlbook.pdf 

o Reiluus (engl. fairness) koneoppimisessa

o Datan valikoituminen, järjestelmän operoimat käsitteet, tilastolliset vinoumat, käyttäjän toiminta

2. Youtube-video: Narayanan, A. ”Tutorial: 21 Fairness Definitions and their Politics”

o Reiluusmääritelmiä ja niiden ongelmia

o Määritelmät käytännössä – tilastolliset ja yhteiskunnalliset vinoumat

3. Verma, S., & Rubin, J. (2018, May). Fairness definitions explained. 2018 IEEE/ACM International Workshop on Software Fairness (FairWare) (pp. 1-7). IEEE.

5. Automatisoitu päätöksenteko ja läpinäkyvyys

Viidennellä kerralla tartutaan algoritmisen läpinäkyvyyden ongelmaan. Tarkastelemme, millaisia episteemisiä mahdollisuuksia ja rajoitteita tekoäly asettaa käyttäjille ja datasubjekteille sekä mitä näille rajoituksille voidaan mahdollisesti tehdä. 

1. Diakopoulos, N. (2014). Algorithmic Accountability: the investigation of Black Boxes. Tow Center for Digital Journalism. URL: (https://www.cjr.org/tow_center_reports/algorithmic_accountability_on_the_investigation_of_black_boxes.php)

o Algoritmisen läpinäkyvyyden ongelma journalistiikan näkökulmasta

o Episteemisen subjektiviteetin muodostuminen

2. Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual explanations without opening the black box: Automated decisions and the GDPR.

o GDPR riittämättömänä viitekehyksenä algoritmisen läpinäkyvyyden toteutumiselle datasubjektin näkökulmasta

o Datasubjektin oikeus kontrafaktuaaliseen selitykseen

Kiinnostuneille tuore artikkeli henkilökohtaisen datan määritelmällisistä ongelmista GDPR:ssä:

• Wachter, S. & Mittelstadt, B. (2019). A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI.

6. kerta: Keinotekoinen toimijuus ja moraalinen vastuu

Kuudennen kokoontumisen aihealueena on tekoälyn toimijuuden ja moraalisen vastuun kysymykset. Tarkastelemme yhtäältä, millaisia kriteereitä voidaan asettaa sille, että tekoäly voisi olla moraalinen toimija, ja toisaalta, kuinka vastuun jakautumista tulisi tarkastella ihmisen ja tekoälyn välillä.

4. Himma, K. E. (2009). Artificial agency, consciousness, and the criteria for moral agency: What properties must an artificial agent have to be a moral agent?. Ethics and Information Technology, 11(1), 19-29.

o Kriteerejä toimijuudelle sekä moraaliselle vastuulle

5. Coeckelbergh, M. (2009). Virtual moral agency, virtual moral responsibility: on the moral significance of the appearance, perception, and performance of artificial agents. AI & society, 24(2), 181-189.

o "Metafyysisen" lähestymistavan haastaminen; virtuaalinen moraalinen toimijuus ja virtuaalinen moraalinen vastuu 

Lisälukemistoa kiinnostuneille:

  • Sparrow, R. (2007). Killer robots. Journal of applied philosophy, 24(1), 62-77.

7. kerta: Älykkäät artefaktit ja eettinen suunnittelu

Seitsemännellä kerralla käsittelemme teknologiasuunnittelua ja tapoja, joilla käyttäjän toimintaa voidaan ohjata käytön yhteydessä. Erityisenä tarkastelun kohteena on (sosiaalinen) robotiikka, jonka kohdalla pohdimme, kuinka teknologisella suunnittelulla voidaan houkutella esiin tietynlaisia käyttäytymisen muotoja. 

1. Tromp, N., Hekkert, P. & Verbeek, P. P. (2011). ”Design for Socially Responsible Behavior: A Classification of Influence Based on Intended User Experience”, Design Issues 27(3): 3–19.

o (Käyttäjän) toiminnan ohjaaminen teknologiasuunnittelun näkökulmasta

o Toiminnan ohjaamisen nelikenttä: heikko–vahva ja ilmeinen–näkymätön.  

2. Turkle, S., Taggart, W., Kidd, C. D. & Dasté, O. (2006). ”Relational Artifacts with Children and Elders: The Complexities of Cybercompanionship. Connection Science, 18(4): 347–361.  

o Ihmisen ja teknologisten artefaktien vuorovaikutus

o Affekti ja teknologia

o Kumppanuus robotin kanssa

8. Tekoälyn etiikka: Suuntaviivoja ja suosituksia

Viimeisellä kokoontumiskerralla katsotaan erinäisten asiantuntijaryhmien suosituksia ja eettisiä ohjeistuksia tekoälyn ja robotiikan tiimoilta. Tarkastelemme muun muassa, millaisia suosituksia on annettu tekoälyn sääntelyn suhteen, minkälaista valvontaa peräänkuulutetaan osaksi suunnitteluprosessia, minkälaista vastuuta suunnittelijoilta ja kuluttajilta edellytetään sekä minkälaista roolia valtiolle, tutkijayhteisölle ja yliopistoille suositellaan.

1. AI Now 2018 report: Recommendations.

2. Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Schafer, B. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689-707.

3. Boden, M., Bryson, J., Caldwell, D., Dautenhahn, K., Edwards, L., Kember, S., ... & Sorrell, T. (2017). Principles of robotics: regulating robots in the real world. Connection Science, 29(2), 124-129.

Tutkinto-opiskelijoiden ilmoittautuminen

Ilmoittautuminen Nettiopsussa on päättynyt

Opettajat

Arto Laitinen, Vastaava opettaja
arto.laitinen[ät]tuni.fi
Otto Sahlgren, Vastaava opettaja

Opetus

4.3.2019 – 1.6.2019

Arviointi

Hyväksytty/hylätty.

Lisätiedot

Korvaavuus myös kohtiin FILA9 ja FILS1e ja sopimuksen mukaan.