Demokratiakorjaamo: Kiire ja harkinta – kuinka digitalisaatio muokkaa demokratiaa?
Strategisen tutkimuksen ohjelmat STEER, SHIELD, LITERACY ja CULT kutsuvat kaikki suomalaisen demokratian tilasta ja kehittämisestä kiinnostuneet kuulemaan ajankohtaisesta tutkimuksesta ja keskustelemaan ajankohtaisesta aiheesta:
”Kiire ja harkinta – kuinka digitalisaatio muokkaa demokratiaa?”
Päätöksentekoa edeltävä keskustelu ja vaihtoehtojen huolellinen harkinta ovat demokratian keskeisiä ominaisuuksia. Demokratia on prosessi, jossa erilaisista näkemyksistä keskustellaan joskus pitkällisestikin ennen lopputulemaan päätymistä. Yhteiskunnallinen toimintaympäristö muuttuu kuitenkin kiihtyvällä vauhdilla ja erilaisia näkökulmia sekä näyttöä tarvitaan päätöksenteon tueksi pikaisella aikataululla.
Digitalisaation - ja erityisesti internetin ja sosiaalisen median - on uskottu edistävän kansalaisten mahdollisuuksia osallistua demokraattiseen keskusteluun, mikä parhaimmillaan mahdollistaa monien erilaisten näkökulmien esiin nousemisen sekä esimerkiksi marginalisoitujen ryhmien kuulemisen. Päätöksentekoa voidaan myös nopeuttaa, jos saatavilla on reaaliaikaista dataa. Hyvän datan avulla voidaan olla ketterämpiä ja tehokkaampia ja jos dataa analysoidaan tekoälyllä, saadaan ehkä aiempaa luotettavampia tuloksia. Toisaalta esimerkiksi some on nopea media, jossa asiat syntyvät ja kuihtuvat pois nopeasti. Muuttaako some näin ajatusta demokraattisen prosessin luonteesta ”hitaana harkintana”?
Tässä demokratiakorjaamossa pohditaan digitalisaation, datafikaation ja algoritmisaation vaikutuksia demokraattiseen prosessiin ja sen luonteeseen. Miten digitaalisten teknologioiden mahdollistama nopeus, tiedontarpeen kiireys ja demokraattinen päätöksenteko voidaan sovittaa yhteen?
Ylittääkö sosiaalisen median ”keskinopeus” inhimillisen ajattelun, keskustelun ja päätöksenteon turvallisen rajat? Edellyttääkö demokratia käsitteellisesti uusia ”nopeusrajoituksia”, joiden tarve on ilmennyt uuden teknologian yllättävistä reunavaikutuksista?
Tilaisuudessa järjestetään paneelikeskustelu sekä työpajoja erillisistä aihealueen teemoista. Paneelikeskustelua voi seurata myös etänä. Työpajat toteutetaan vain paikan päällä.
Ilmoittaudu tästä paneelikeskusteluun ja yhteen työpajaan viimeistään 3.11.2023.
Ohjelma
12.15 Alkusanat (Sirkus 1+2)
12.30 Paneelikeskustelu: ”Miten digitalisaatio ja algoritmit ohjaavat ja rytmittävät demokraattista keskustelua ja päätöksentekoa?” (Sirkus 1+2)
13.45 Kahvi (Pool Lounge)
14.15 Rinnakkaiset työpajat
15.45 Yhteenveto (Sirkus 1 + 2)
Paneelikeskustelu
Paneelikeskusteluun “Miten digitalisaatio ja algoritmit ohjaavat ja rytmittävät demokraattista keskustelua ja päätöksentekoa?” osallistuvat kansanedustaja Anna Kontula, Ylen vastaava tuottaja Olli Seuri, sosiaalietiikan tutkijatohtori Taina Kalliokoski ja Sitran Demokratia ja osallisuus -teeman johtaja Veera Heinonen. Paneelikeskustelun vetää ohjelmajohtaja Karoliina Snell.
Työpajat
Katso työpajojen 1-5 kuvaukset alla olevasta pudotusvalikosta.
Työpaja 1: Inklusiivisuus ja digitaaliset taidot – eri ryhmät käyttäjinä ja toimijoina tekoälyssä
Tekoäly kehittyy kovaa vauhtia ja monet eri toimijat niin yksityisellä kuin julkisella sektorilla ovat ottamassa sitä käyttöönsä. Vaikka digitalisaation ja teköälyn tarkoitus on ollut helpottaa monien ihmisten elämää, se voi pahimmillaan lisätä ennakkoluuloisuutta eri väestöryhmistä.
Turvallisuus ja luottamus algoritmien aikakaudella (SHIELD) -ohjelmassa lähtökohtana on lisätä eri ryhmien kuuluvuutta ja yhdenvertaisuutta yhteiskunnassa algoritmien aikakaudella. Miten nämä eri toimijat (maahanmuuttajat, eri kieliryhmät, lapset ja nuoret, ikäihmiset, jne.), kokevat ja toimivat tekoälyn käyttäjinä? Ketkä voivat Suomessa edistää sitä, että inklusiivisuus huomioidaan tekoälyn kehityksessä ja soveltamisessa? Millaisia kompetensseja eri ryhmät tarvitsevat tekoälyn käyttäjinä. Voiko tekoäly olla koskaan tasa-arvoista meille kaikille? Tule keskustelemaan tutkijoiden ja SHIELD-ohjelman hankkeiden kumppaneiden kanssa siitä, miten edistää inklusiivista yhteiskuntaa tekoälyn aikakaudella.
Työpaja 2: DEDA – työkalu dataprojektien arvoperustan ja eettisten jännitteiden luotaamiseen
Utrecht Data Schoolissa kehitetty keskustelupohjainen arviointityökalu DEDA (Data Ethics Decision Aid) syntyi tarpeesta lisätä eettistä ymmärrystä yritysten ja julkishallinnon dataprojekteissa ja herättää niiden parissa työskentelevät tiimit pohtimaan projekteissa tehtyjä valintoja.
Työkalun suomenkielinen versio on syntynyt Algoritmisten systeemien murtumat ja uudet alut (REPAIR) -hankkeen, Digi- ja väestötietoviraston ja Utrecht Data Schoolin yhteistyön tuloksena. DEDA haastaa pohtimaan muun muassa avoimuteen, vastuullisuuteen, syrjintään ja riskeihin liittyviä kysymyksiä ja toimii samalla projektin päätöksentekoprosessin dokumentoinnin apuna. DEDA auttaa luotaamaan omaa ja organisaation arvoperustaa ja opettaa arvoihin ja etiikkaan liittyvien jännitteiden dynamiikkaa. Työpajassa kuulet lisää DEDA:sta ja pääset kokeilemaan sitä käytännössä.
Työpaja 3: Digitalisaatio, tekoäly ja hiljaiset toimijat: uusia mahdollisuuksia ja uhkia
Työpajassa tarkoitus on keskustella ja pohtia hiljaisten toimijoiden näkökulmasta digitalisaation ja tekoälyn tarjoamista mahdollisuuksista, mahdottomuuksista ja uhista demokraattisissa prosesseissa. Miten digitaaliset työkalut voivat auttaa hiljaisia toimijoita osallistumaan itseään koskevaan päätöksentekoon ja mitä haasteita siihen liittyy? Entä miten tekoälyllä voidaan tehdä hiljaisten asemaa näkyväksi mielekkäällä tavalla ja mitä riskejä siihen liittyy ottaen huomioon, että hiljaisten itsensä tuottamaa näkökulmaa on julkisesti saatavilla vain vähän ja monet muut saattavat puhua heistä enemmän kuin he itse. Meitä kiinnostaa myös viimeisin tieto tekoälyn käyttömahdollisuuksista ja tulevaisuuden näkymät liittyen esimerkiksi tiedon tuotantoon sosiaalisen median alustoilta.
Työpaja 4: Teknologiausko, luottamus ja demokratia
Odotuksilla on voimaa muuttaa yhteiskunnallista todellisuutta. Uusilla teknologisilla aloitteilla kuten laajoilla kansallisilla ohjelmilla luodaan odotuksia ja narratiiveja niiden yhteiskunnallisia haasteita ratkaisevasta voimasta. Kun teknologiaodotukset kytketään yhteiskuntapolitiikkaan, luodaan sosio-teknisiä imaginaareja, kollektiivisia visioita edistyksen suunnasta. Mikä on imaginaarin ja luottamuksen suhde? Jos imaginaarit pettävät, pettääkö myös luottamus teknologian käyttöön?
Tekoälyn käyttö hallinnossa päätöksenteon tukena ja palveluiden parantajana on eräs imaginääri. Jos sen tuottama lupaus tehokkuudesta, kansalaisten osallistamisesta, ja yhteistyön helpottumisesta siiloutuneessa hallinnossa eivät toteudu, menetetäänkö luottamus teknologiaan demokraattisen hallinnon osana? Vai menetetäänkö teknologian kyljessä luottamus prosesseihin? Jos teknologiassa epäonnistutaan, heikkeneekö myös luottamus instituutioihin?
Työpaja 5: Kuka päättää mistä puhutaan
Sillä, mistä asioista yhteiskunnassa puhutaan ja vaietaan, on merkitystä siihen, millaisessa todellisuudessa elämme ja millaisia päätöksiä yhteiskunnassa tehdään. Medioilla ja suurilla teknologiayrityksillä on iso vaikutus siihen mistä keskustellaan, millaista tietoa kansalaisilla on, mitkä kysymykset ovat tärkeitä ja millaisena todellisuus nähdään.
Uusi teknologia ja digitaaliset mediat eivät ole lisänneet keskusteltavien teemojen määrää; päinvastoin keskustelu on keskittynyt. Tässä työpajassa pohditaan, miten yhteiskunnan digitalisoituminen ja datavetoinen kulttuuri vaikuttaa siihen mistä puhumme ja mistä vaikenemme. Kysymme, miten digitaalinen kulttuuri muovaa tapoja ja kokemuksia siitä, miten yhteiskunnalliseen keskusteluun ja toimintaan voi osallistua ja miten datakäytännöt vaikuttavat osallistumiseen ja kansalaisuuteen.
Lisätietoja:
Demokratiakorjaamon järjestävät Strategisen tutkimuksen ohjelmat STEER, SHIELD, LITERACY ja CULT. Lisätietoa ohjelmista löydät Ohjelmat ja hankkeet -osiosta.
- ohjelmajohtaja Mika Nieminen (STEER),etunimi.sukunimi(at)vtt.fi
- ohjelmajohtaja Jarmo Viteli (LITERACY), etunimi.sukunimi(at)tuni.fi
- ohjelmajohtaja Karoliina Snell (SHIELD), etunimi.sukunimi(at)helsinki.fi
- ohjelmajohtaja Minna Lammi (CULT), etunimi.sukunimi(at)aru.ac.uk