Näkökulmia tekoälyyn varjopuoliin: seminaarikuulumisia

Olen taas törmännyt muutamaan kirjastoalan tapahtumaan, joiden ohjelmassa tekoäly on isossa roolissa. Tänään alkoi Urban Libraries Councilin jäsentapahtuma Salt Lake Cityssä ja joulukuussa Stanford järjestää jatkoa viime vuonna Oslossa järjestetylle Fantastic Futures -konferenssille. Kumpaankaan näistä minun ei ole realistista osallistua, mutta on kiva kuitenkin seurata, mitä kaikkea on meneillään aiheen parissa. Fantastic Futures striimattiin viime vuonna, joten ehkä etäosallistuminen on mahdollista tänäkin vuonna.

Muutamaan tekoälyaiheiseen tapahtumaan olen sentään päässyt osallistumaan: University of Marylandin eri tahojen järjestämään “Deepfakes and the Future of Facts” -iltatilaisuuteen sekä New Yorkissa AI Now Instituten järjestämään AI Now 2019-symposiumiin. Kumpikaan tilaisuus ei lopulta ollut kovin lähellä sitä, millaisia asioita täällä tarkastelen, mutta molemmista opin paljon uutta! Molemmat olivat iltatilaisuuksia ja ote oli ilta-aikaa ajatellen sopivan viihteellinen, vaikka asiasisältö ei ihan kevyttä ollutkaan. Toisessa seminaarissa puhujat olivat (ilmeisesti) varsin isoja nimiä ja kukin piti ensin lyhyen noin 10 minuutin alustuksen tai oman valmistellun puheenvuoron, jota seurasi lyhyt ja sujuva keskustelu, jossa ei vältelty erimielisyyksiä. Toisessa seminaarissa puolestaan seminaarin järjestäjätaho haastatteli ihmisiä ja lavalla ehti parin tunnin aikana käydä 15-20 ihmistä kertomassa omasta projektistaan ja kokemuksistaan. Joko en Suomessa käy tämän tyyppisissä tilaisuuksissa tai sitten niitä ei järjestetä!

AI Instituten perustajat Kate Crawford ja Meredith Whittaker lavalla AI Now 2019 Symposiumissa

“Deepfakes and the Future of Facts” -seminaariin sain kutsun UMD:n kontaktieni kautta. Tilaisuus järjestettiin The Phillips Collection -museossa, joka on kuulemma muutenkin vierailemisen arvoinen nykytaiteen museo. Tapahtuma oli astetta fiinimpi: ulko-oven edessä päivysti joukko auton pysäköinnissä auttavaa henkilökuntaa (itse parkkeerasin pyöräni omatoimisesti!) ja tilaisuus alkoi buffet-pöydällä ja päättyi jälkiruokaan. Illan pääpuheenvuorot voi katsoa myös tallenteina. Alustuksia seurasi ehkä noin puolen tunnin mittainen loppukeskustelua, jossa illan esiintyjät kävivät varsin tiukkaakin keskustelua esim. isojen tech-yritysten vastuusta deepfake-ilmiön ja muiden vastaavien kurissa pitämisessä.

Deepfake and the Future of Facts -tapahtuman mainoskuva.
Deepfakes and the Future of Facts -tapahtumalla oli monta järjestäjää, kuten logojen määrästä voi päätellä!

Ilta keskittyi nimensä mukaisesti Deepfake -videoihin. Mielestäni kiinnostavin puheenvuoro oli tietojenkäsittelytieteilijä Hany Faridilla. Olin lukenut aikaisemminkin uutisjuttuja valevideoista, mutta vasta tämän esityksen myötä lopullisesti tajusin, että nykyään tällaisia videoita tehdään automaattisesti teköälyn avustuksella, mikä luonnollisestikin tekee ilmiöstä paljon aikaisempaa laajemman. Farid myös esitteli tekoälyn avulla tehtyjä ihmiskasvoja sisältäviä verkkosivuja (kuten thispersondoesnotexist.com) ja muistutti siitä, että deepfake-videoita voi käyttää moniin ikäviin tarkoituksiin: todisteiden väärentämiseen, misinformaation levittämiseen, tai erilaisiin huijauksiin. Lopuksi hän puhui forensics -näkökulmasta siitä, miten tekniikan avulla voi tunnistaa deepfake -videoita. Farid on itse asiassa ollut mukana tekemässä työkalua, joka voi auttaa toimittajia esimerkiksi Yhdysvaltojen 2020 presidentinvaaleissa tunnistamaan eri ehdokkaista tehtyjä valevideoita.

Yksi illan esityksistä keskittyi tiedonhakuun ja siinä Googlen power searching -kursseista vastaava (ja kurssivideoilla esiintyvä!) Dan Russell puhui siitä, miten hakukoneen avulla voi selvittää valokuvien ja videoiden taustoja. Eri työkalujen käytön lisäksi hän muistutti, että ytimessä on kriittinen medialukutaito. Lisäksi kannattaa kiinnittää huomiota siihen, jos sisältö tuottaa suuren tunnereaktion, ilmestyy juuri ennen isoa tapahtumaa (esim. vaalit) tai pian sellaisen jälkeen (esim. terrori-isku).

Sisäänpääsyä odottamassa AI Now-symposiumiin

AI Now -symposium osui sopivasti New Yorkin reissuviikollemme. Illan aloitin tyylikkäästi odottamalla tihkusateessa wait list-jonossa. Tilaisuus oli tullut täyteen jo monta viikkoa aikaisemmin ja itse olin linjoilla pari päivää liian myöhään ja sain vain jonopaikan. Paikallisten kanssa juteltuani sain kuvan, että mahdollisuudet päästä sisään ovat kuitenkin hyvät, koska läheskään kaikki ilmoittautuneet eivät tapaa saapua paikalle ja näin todellakin kävi! AI Now Institute toimii New York Universityn osana ja keskittyy tekoälyn sosiaalisten vaikutusten tutkimiseen.

Tilaisuuden sisältö oikeastaan hieman yllätti minut huolimatta siitä, että olin lukenut ohjelman etukäteen ja tiesin, että teema oli “pushback against harmful AI”. Näkökulma tekoälyyn oli todella kriittinen ja illan aikana nostettiin esiin tavallisia ihmisiä, joiden elämään tekoäly oli tavalla tai toisella vaikuttanut. Illan mittaan selvisi, että instituutin aikaisemmin järjestämät seminaarit olivat olleet tyypillisempiä teknologiaan keskittyviä tilaisuuksia ja nyt oli valittu tarkoituksella uudenlainen näkökulma. Kaikki esitellyt tapaukset eivät liittyneet suoraviivaisesti yksittäisiin tekoälysovelluksiin, vaan osa kohdistui laajemminkin tekoälyä käyttäviin (suur)yrityksiin ja erityisesti siihen miten ne kohtelevat ruohonjuuritason työntekijöitään.

AI Now Institute on julkaissut Medium.comissa oman kuvauksensa illasta. Teksti on varsin yksityiskohtainen ja sisältää paljon linkkejä uutislähteisiin yms. Mediumin jutusta kannattaa aiheesta kiinnostuneiden ainakin katsoa vuosikelloa, johon on listattu tapahtumia Yhdysvalloista, joissa joku on (tavalla tai toisella) noussut vastustamaan tekoälyä tai sitä hyödyntäviä yrityksiä. Vastustus on jaettu seuraaviin teemoihin: ennakkoasenteet ja diskriminaatio, kasvojentunnistus, kaupunkien ja rajojen valvonta, ilmasto ja työntekijöiden oikeudet.

Seminaarista jäi minulle mieleen erityisesti kaksi tapausta, joista toinen liittyi kasvojentunnistukseen ja toinen hallinnon apuna käytettäviin työkaluihin. Brooklynissa suuren vuokrakerrostalon omistaja ilmoitti asukkailleen ottavansa kasvojentunnistuksen käyttöön avainten sijasta, mikä sai asukkaat kokoamaan voimansa vastustaakseen hanketta. Vastustukseen liittyy monia näkökulmia. Teknisestä näkökulmasta kasvojentunnistuksen on, ehkä osin myös opetusdatasta johtuen, todettu toimivan huonommin mustaihoisilla ihmisillä kuin valkoihoisilla ja koska taloyhtiön asukkaista suurin osa on mustaihoisia lähtökohtaisesti jo tekniikan toimivuus epäilyttää. Toisaalta asukkaat ovat huolissaan tarpeettoman valvonnan lisäämisestä ja siitä, mihin kaikkeen kasvojentunnistusteknologiaa lopulta käytetään, eikä lainsäädäntö ole pysynyt tilanteen tasalla asian suhteen. Asukkaat ovat selvittäneet asiaa myös oikeusteitse ja myötävaikuttaneet siihen, että asiasta saadaan myös oikeustapauksia.

Hallinnon työkaluihin liittyen Michiganissa oli vuosina 2013-2018 käytössä MiDAS-niminen systeemi, jonka piti toimia viranomaisten apuna sosiaalitukien väärinkäytösten selville saamisesta. Kovinkaan moni asia ei tunnu menneen putkeen järjestelmän kanssa: ensinnäkin järjestelmä oli väärässä noin 90 %:ssa tapauksista ja toiseksikin osavaltio lakkautti osaston, joka oli aikaisemmin selvittänyt vastaavia tapauksia ihmistyönä – ja irtisanoi osaston työntekijät. Michiganissa kymmeniä tuhansia ihmisiä syytettiin virheellisesti tukien väärinkäytöstä ja osa heistä joutui syytösten seurauksena vakaviin taloudellisiin ja henkilökohtaisiin vaikeuksiin. Syytettyjen ihmisten lukumäärät ja virheprosentit tuntuivat vaihtelevan eri lähteissä, joten käytin tässä siksi summittaisia lukuja. Myös tätä tapausta on käsitelty oikeusteitse ja syytösten kohteeksi joutuneet ihmiset ovat lopulta saaneet korvauksia. Kaiken kaikkiaan tuntuu, että prosessissa oli pielessä moni muukin asia kuin itse teknologia, mutta tapaus on osoitus siitä, että algoritmeihin ei tule sokeasti luottaa jos niiden haluaa olevan hyödyllisiä työkaluja.