Alustava ohjelma ja luettava kirjallisuus
1.kerta: Tekoäly, koneoppiminen ja datatiede
Ensimmäisellä kokoontumiskerralla Otto Sahlgren alustaa aiheesta ”tekoälyn, koneoppimisen ja datatieteen perusteet”. Osallistujia pyydetään lukemaan ensimmäistä kertaa varten seuraavat tekstit:
1.”Pattern recognition” (luku 3) teoksesta Alpaydin, E. (2016) Machine Learning. Cambridge (Mass.): MIT Press.
o Koneoppimismenetelmät ja käyttötarkoitukset
2. LeCun, Y., Bengio, Y., & Hinton, G. (2015) Deep learning. Nature, 521(7553).
o Syväoppivat neuroverkot
o Oppimisen muodot
3. “Privacy and ethics” (luku 6) teoksesta Kelleher, J. D. & Tierney, B. (2018) Data Science. Cambridge (Mass.): MIT Press.
o Datatieteen eettiset kysymykset
o Yksityisyys ja datasubjektin yksityisyyden turvaaminen
2. kerta: Algoritmiset vinoumat
Toisella kokoontumiskerralla käsitellään algoritmisia vinoumia: Kuinka vinoumat syntyvät? Minkälaisia eettisesti arveluttavia lopputulemia vinoumat voivat tuottaa? Onko vinoumia mahdollista korjata ja jos on, miten? Tarkastellaan myös lyhyesti algoritmien käyttöön liittyviä episteemisiä ja normatiivisia huolia.
1. Danks, D. & London, A. (2017) “Algorithmic Bias in Autonomous Systems”. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI-17).
o Algoritmiset vinoumat ja niiden taksonomia
o Intervention mahdollisuudet vinoumien estämiseksi
2. Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016) The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 2053951716679679.
o Algoritmien etiikan kysymyksiä
o Episteemiset ja normatiiviset huolet
3. kerta: Tunnistusteknologia, profilointi ja valvonta
Kolmannella kokoontumiskerralla keskitytään tunnistusteknologiaan ja siihen liittyvään eettiseen problematiikkaan. Erityisenä tarkastelun kohteena ovat tunnistusteknologian poliittinen luonne, valvonta, profilointi ja yksityisyys.
1. Luku 1.1. (s. 12–17), AI Now 2018 report.
o Yksityisyys, profilointi ja affektintunnistuksen tieteellinen pohja
2. Introna, L., & Wood, D. (2004). Picturing algorithmic surveillance: The politics of facial recognition systems. Surveillance & Society, 2(2/3), 177-198.
o Algoritminen valvonta ja sen politiikka
o Huom. kiinnitä huomiota erityisesti eettiseen problematiikkaan, jota artikkelissa esitellään. Kattavampi kuvaus tunnistusteknologian nykytilasta suositellussa lisälukemistossa.
Suositeltuna (teknisenä) pohjalukemistona myöskin esimerkiksi seuraavat artikkelit:
• Zulqarnain Gilani, S., & Mian, A. (2018). Learning from millions of 3d scans for large-scale 3d face recognition. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 1896-1905).
• Jarvis, P. A., Lunt, T. F., & Myers, K. L. (2005). Identifying terrorist activity with AI plan recognition technology. AI Magazine, 26(3), 73.
4. kerta: Algoritmit ja reiluus
Neljännellä kokoontumiskerralla tarkastellaan algoritmista päätöksentekoa ja reiluutta. Erityisenä tarkastelun kohteena ovat tilastolliset/mittaukseen liittyvät vinoumat sekä niiden suhde laajempiin, ”yhteiskunnallisiin vinoumiin”. Aihe on suhteellisen teknispainotteinen, joten pyrimme sitomaan keskustelua laajempiin yhteiskuntafilosofisiin konteksteihin.
1. Sivut 9–32 teoksesta Barocas, S., Hardt, M. & Narayanan, A. (2018) Fairness in Machine Learning. URL: https://fairmlbook.org/pdf/fairmlbook.pdf
o Reiluus (engl. fairness) koneoppimisessa
o Datan valikoituminen, järjestelmän operoimat käsitteet, tilastolliset vinoumat, käyttäjän toiminta
2. Youtube-video: Narayanan, A. ”Tutorial: 21 Fairness Definitions and their Politics”
o Reiluusmääritelmiä ja niiden ongelmia
o Määritelmät käytännössä – tilastolliset ja yhteiskunnalliset vinoumat
3. Verma, S., & Rubin, J. (2018, May). Fairness definitions explained. 2018 IEEE/ACM International Workshop on Software Fairness (FairWare) (pp. 1-7). IEEE.
5. Automatisoitu päätöksenteko ja läpinäkyvyys
Viidennellä kerralla tartutaan algoritmisen läpinäkyvyyden ongelmaan. Tarkastelemme, millaisia episteemisiä mahdollisuuksia ja rajoitteita tekoäly asettaa käyttäjille ja datasubjekteille sekä mitä näille rajoituksille voidaan mahdollisesti tehdä.
1. Diakopoulos, N. (2014). Algorithmic Accountability: the investigation of Black Boxes. Tow Center for Digital Journalism. URL: (https://www.cjr.org/tow_center_reports/algorithmic_accountability_on_the_investigation_of_black_boxes.php)
o Algoritmisen läpinäkyvyyden ongelma journalistiikan näkökulmasta
o Episteemisen subjektiviteetin muodostuminen
2. Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual explanations without opening the black box: Automated decisions and the GDPR.
o GDPR riittämättömänä viitekehyksenä algoritmisen läpinäkyvyyden toteutumiselle datasubjektin näkökulmasta
o Datasubjektin oikeus kontrafaktuaaliseen selitykseen
Kiinnostuneille tuore artikkeli henkilökohtaisen datan määritelmällisistä ongelmista GDPR:ssä:
• Wachter, S. & Mittelstadt, B. (2019). A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI.
6. kerta: Keinotekoinen toimijuus ja moraalinen vastuu
Kuudennen kokoontumisen aihealueena on tekoälyn toimijuuden ja moraalisen vastuun kysymykset. Tarkastelemme yhtäältä, millaisia kriteereitä voidaan asettaa sille, että tekoäly voisi olla moraalinen toimija, ja toisaalta, kuinka vastuun jakautumista tulisi tarkastella ihmisen ja tekoälyn välillä.
4. Himma, K. E. (2009). Artificial agency, consciousness, and the criteria for moral agency: What properties must an artificial agent have to be a moral agent?. Ethics and Information Technology, 11(1), 19-29.
o Kriteerejä toimijuudelle sekä moraaliselle vastuulle
5. Coeckelbergh, M. (2009). Virtual moral agency, virtual moral responsibility: on the moral significance of the appearance, perception, and performance of artificial agents. AI & society, 24(2), 181-189.
o "Metafyysisen" lähestymistavan haastaminen; virtuaalinen moraalinen toimijuus ja virtuaalinen moraalinen vastuu
Lisälukemistoa kiinnostuneille:
7. kerta: Älykkäät artefaktit ja eettinen suunnittelu
Seitsemännellä kerralla käsittelemme teknologiasuunnittelua ja tapoja, joilla käyttäjän toimintaa voidaan ohjata käytön yhteydessä. Erityisenä tarkastelun kohteena on (sosiaalinen) robotiikka, jonka kohdalla pohdimme, kuinka teknologisella suunnittelulla voidaan houkutella esiin tietynlaisia käyttäytymisen muotoja.
1. Tromp, N., Hekkert, P. & Verbeek, P. P. (2011). ”Design for Socially Responsible Behavior: A Classification of Influence Based on Intended User Experience”, Design Issues 27(3): 3–19.
o (Käyttäjän) toiminnan ohjaaminen teknologiasuunnittelun näkökulmasta
o Toiminnan ohjaamisen nelikenttä: heikko–vahva ja ilmeinen–näkymätön.
2. Turkle, S., Taggart, W., Kidd, C. D. & Dasté, O. (2006). ”Relational Artifacts with Children and Elders: The Complexities of Cybercompanionship. Connection Science, 18(4): 347–361.
o Ihmisen ja teknologisten artefaktien vuorovaikutus
o Affekti ja teknologia
o Kumppanuus robotin kanssa
8. Tekoälyn etiikka: Suuntaviivoja ja suosituksia
Viimeisellä kokoontumiskerralla katsotaan erinäisten asiantuntijaryhmien suosituksia ja eettisiä ohjeistuksia tekoälyn ja robotiikan tiimoilta. Tarkastelemme muun muassa, millaisia suosituksia on annettu tekoälyn sääntelyn suhteen, minkälaista valvontaa peräänkuulutetaan osaksi suunnitteluprosessia, minkälaista vastuuta suunnittelijoilta ja kuluttajilta edellytetään sekä minkälaista roolia valtiolle, tutkijayhteisölle ja yliopistoille suositellaan.
1. AI Now 2018 report: Recommendations.
2. Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., ... & Schafer, B. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689-707.
3. Boden, M., Bryson, J., Caldwell, D., Dautenhahn, K., Edwards, L., Kember, S., ... & Sorrell, T. (2017). Principles of robotics: regulating robots in the real world. Connection Science, 29(2), 124-129.
Korvaavuus myös kohtiin FILA9 ja FILS1e ja sopimuksen mukaan.