Open AI -yrityksen lanseeraman Chat GPT on ollut 2022-2023 vuodenvaihteen puheenaihe teknologiapiireissä. Älykkään oloinen chattibotti on lyönyt monet käyttäjät ällikälle: se on kirjoittanut kirjoja, musiikkia, treeniohjelmia, koodia jne.
Samaan aikaan myös kuvapuolelle on noussut tekoälyä käyttäviä palveluja kuten Open AI:n Dall-E, Midjourney ja Stable Diffusion. Palveluiden idea on luoda kuvia ns. tyhjästä: käyttäjä kuvailee sanoin mitä haluaa, ja tekoäly pirtää kuvan, jota voi sitten säätää komennoilla.
Tekoälyyn ja sen mahdollisuuksiin kohdistuukin tällä hetkellä paljon odotuksia aina terveydenhuollon tehostamisesta jopa ilmastokriisin hillitsemiseen.
Samalla nousee esiin tieteiselokuvista tuttuja uhkakuvia: voiko tekoäly muuttua hallitsemattomaksi?
– Pari seuraavaa vuotta näyttävät, mitä tekoälyllä pystytään tehdä ja mihin järjestelmiin se voidaan integroida, sanoo Helsingin yliopiston kognitiotieteen yliopistonlehtori ja filosofi Anna-Mari Rusanen.
Tekoälyn yleistyessä nousee esiin lukuisia eettisiä kysymyksiä. Rusanen työskentelee valtiovarainministeriössä juuri tekoälyyn liittyvien eettisten ja yhteiskunnallisten vaikutusten erityisasiantuntijana.
– Huoli hypen takana on se, ettei vain käy niin, että koneistamme kaiken. Ja samaan aikaan emme huomaa sitä, että tuomme samalla sellaisen ideologian, jota emme oikeastaan haluaisi, Rusanen sanoo.
Eettinen tekoäly kohtelee ihmisiä reilusti
Eettiset kysymykset tulevat esiin jo järjestelmien kehityksen aikana.
Time-lehti uutisoi tammikuussa 2022, että Chat GPT -tekoälysovelluksen takana on epäeettistä halpatyövoimaa. Lehden mukaan sovelluksen takana olevan Open AI –yrityksen alihankkijan kenialaiset työntekijät ovat peranneet valtavia määriä tekstiä alle kahden dollarin tuntipalkalla ja altistuneet samalla internetin syövereiden pimeimmälle törkylle, kuten väkivaltakuvauksille.
Vastaavaa halpatyövoiman käyttöä ja vahingolliselle materiaalille altistamista on ollut myös kuvapankkisovelluksissa sekä sosiaalisen median keskustelujen moderoinnissa.
Tekoälyn toimintaan vaikuttaa niin ihmisten siihen syöttämä data kuin se, missä ja mihin tarkoitukseen teknologiaa käytetään. Järjestelmä voi olla vinoutunut ja kohdella ihmisiä eriarvoisesti, Rusanen muistuttaa.
– Yhteiskuntamallimme perusajatus on se, että kaikki ihmiset ovat yhdenvertaisia. Jos emme ole tarkkoja, voi käydä niin, että otetaan huomaamatta käyttöön sellainen järjestelmä, joka ei noudata yhdenvertaisuusperiaatetta.
Suur-Lontoon poliisi kokeili tekoälyllä toimivaa kasvojentunnistusta terroristien tunnistamiseen. Sovellus valikoi virheellisesti ihmisiä esimerkiksi ihonvärin pohjalta.
Rusasen mukaan tekoälyn etiikasta on käyty keskustelua etenkin viiden teeman avulla:
1. & 2. Reiluus ja yhdenvertaisuus
Tekoälyn pitää kohdella kaikkia ihmisryhmiä oikeudenmukaisesti ja reilusti. Näin ei ole aina käynyt. Vuonna 2019 Suur-Lontoon poliisi päätti kokeilla tekoälyllä toimivaa kasvojentunnistusta mahdollisten terroristien tunnistamiseen.
– Järjestelmässä oli vinouma ja sitä oli harjoitettu huonolaatuisella datalla. Sovellus valikoi virheellisesti ihmisiä esimerkiksi ihonvärin pohjalta, ja liputti heitä mahdollisiksi terroristeiksi, Rusanen kertoo.
Myös sukupuolten tasa-arvo on syytä ottaa huomioon miesvaltaisella teknologia-alalla, usein prototyyppikäyttäjä on mies.
3. Vastuullisuus
Kysymykset tekoälyn vastuullisuudesta ovat tärkeitä silloin, kun tekoäly tekee virheen. Kuka on silloin vastuussa? Jos tekoälyn ohjaama auto ajaa kolarin, onko syyllinen auton valmistaja, auton omistaja vai algoritmin koodaaja?
4. Ihmisoikeudet
Tekoälyn pitäisi toimia niin, ettei se loukkaa ihmisoikeuksia, kuten yksityisyyden suojaa ja tietosuojaa.
– Milloin mennään sille alueelle, joka kuuluu yksityisyyden suojan piiriin? Meidän kaikkien datajalanjäljestä voi selvittää paljon asioita, Rusanen sanoo.
5. Ilmastovaikutukset
Viimeisimpänä muttei suinkaan vähäisimpänä on ekologinen kestävyys. Kuinka voidaan kehittää sellaista tekoälyä, joka ei tee ympäristölle hallaa?
Samaan aikaan kun tekoälystä on povattu uutta keinoa ilmastokriisin hillitsemiseen, vaatii sen käyttämä teknologia paljon energiaa ja siten luonnonvaroja.
Yhden tekoälysysteemin kehittäminen voi esimerkiksi päästää ilmakehään yhtä paljon hiilidioksidia kuin viisi autoa koko niiden eliniän aikana.
– Tekoäly ei ole automaattisesti mitään vihreintä teknologiaa, Rusanen sanoo.
Pelisäännöistä on vaikea sopia
Miten sitten voidaan huolehtia siitä, että tekoäly toimii eettisesti ja oikeudenmukaisesti?
Viime vuosina eri valtiot, yritykset ja järjestöt ovat luoneet tekoälylle eettisiä ohjeistuksia. Jopa katolinen kirkko on antanut omat ohjeensa. Tutkimustiedon mukaan eettisten ohjeiden vaikutus on ollut toistaiseksi heikko.
– Ohjeistuksia on kritisoitu hampaattomuudesta ja yrityksiä on syytetty etiikkapesusta, Rusanen sanoo.
Vuonna 2021 Unesco (Yhdistyneiden kansakuntien kasvatus-, tiede- ja kulttuurijärjestö) valmisteli ensimmäiset globaalit tekoälyn eettiset ohjeet, joita sen jäsenvaltiot ovat sitoutuneet noudattamaan. Rusanen oli mukana ohjeiden valmistelussa Suomen delegaatiossa. Unescon ohjeistusten rikkomisesta ei kuitenkaan seuraa mitään sanktioita.
Tällä hetkellä Euroopan ihmisoikeusneuvosto ja Euroopan unioni valmistelevat omaa lainsäädäntöä tekoälyn käytölle. Keskiössä on juuri ihmisoikeuskysymykset.
Rusanen huomauttaa, että kaikkia eettisiä kysymyksiä ei voi hallita lakien avulla.
Oikeudellisten velvoitteiden laatiminen on lisäksi vaikeaa EU:n sisällä, koska digitaalinen kehitys on kussakin jäsenmaassa eri pisteessä. Maailmanlaajuisesti tilanne on vielä vaikeampi. Velvoittavat lait voivatkin toimia Rusasen mukaan lähinnä vain paikallisesti.
– Kysymys yhteisistä pelisäännöistä on vaikea. One size fits for all -ajattelu ei toimi.
Rusasen mukaan tekoälyn eettinen käyttö lähtee siitä, että ihmiset – niin kehittäjät kuin käyttäjät – tietävät mitä tekevät. Algoritmien toiminnan ymmärtäminen alkaa olla tärkeä kansalaistaito.
Suomessa taitoa voi treenata esimerkiksi Helsingin yliopiston Tekoälyn etiikka-verkkokurssilla, jonka sisällöstä Rusanen vastaa.