Kun yrityksiä, julkishallintoa ja tutkimusta yhdistänyt Tekoälyaika-ohjelma käynnistettiin vuonna 2017, tekoälyn etiikka oli heti yksi ohjelman pääteemoista. Kesäkuussa 2018 ohjelman johtaja Pekka Ala-Pietilä valittiin puheenjohtajaksi EU:n asiantuntijaryhmään, jonka tehtävänä oli laatia muun muassa tekoälyn eettisen käytön linjaukset. Euroopan komissio julkaisi tekoälyn eettisen käytönperiaatteethuhtikuussa2019. Nyt eurooppalaiset yritykset voivat testata komission ohjeiden toimivuutta. Yksi kokeilijoista on Stora Enso.

Käytännön ohjeet check-­listoina

Komission suositusten mukaisesti StoraEnso on laatinut ensin ylätason periaatteet, ja sen jälkeen ohjeet käytännön työhön.

– Yleisissä periaatteissa määritellään esimerkiksi se, kuka vastaa tekoälyn kehittämisestä, miten ongelmiin puututaan ja miten dataa hyödynnetään. Ylätason ohjeet ovat tärkeitä organisaation ohjauksessa, mutta käytännön työssä ohjeistuksen pitää olla yksityiskohtaisempaa, kertoo Stora Enson CDO Samuli Savo.

Stora Enson ohjeet tekoälyn kehittäjille ja käyttäjille ovat yksinkertaisia check-listoja, jotka perustuvat komissiolta saatuihin suosituksiin.

– Meidän kokemuksemme mukaan check-listat toimivat hyvin. Ne ovat käytännönläheisiä eivätkä vaadi syvällistä tekoälyosaamista, mutta pakottavat miettimään tärkeimpiä kysymyksiä ja etsimään niihin vastaukset.

Stora Enso on jo räätälöinyt check-listansa – kehittäjille on omansa, käyttäjille omansa. Nyt listoja viedään osaksi kehitystyökaluja. Ne kulkevat mukana, kun algoritmien kehittäminen tai opettaminen etenee.

Tekoälyn käyttö on myös viety osaksi Stora Enson koko toiminnan kattavaa eettistä ohjeistoa.

– Tekoäly on läpitunkeva tekniikka. Jos se jää erilliseksi saarekkeeksi, se ei jalkaudu osaksi yrityksen toimintaa. Me haluamme, että tekoälyn eettinen käyttö on osa jokapäiväisiä prosesseja.

Savo muistuttaa, että työ on vielä alkuvaiheessa.

– Olemme jo lähteneet asiassa konkreettisesti liikkeelle, mutta tarvitaan vielä paljon työtä ja uuden opettelua, ennen kuin tekoälyn käyttö on aidosti arkipäiväistynyt ja muuttunut luonnolliseksi osaksi jokapäiväistä tekemistämme.

Asiakas voi päättää tietojensa käytöstä

Euroopan komission tekoälyn eettisen käytön ohjeistossa on seitsemän periaatetta. Yksi niistä korostaa, että kansalaisilla on oltava täydet mahdollisuudet valvoa omia tietojaan, eikä tietoja saa käyttää heitä vahingoittavalla tavalla.

Tämä periaate on viety näkyväksi OP Ryhmän tietotilinpäätöksessä, joka julkaistiin ensimmäi- sen kerran huhtikuussa 2019.

– Haluamme käyttää asiakkaitamme koskevaa tietoa vastuullisesti ja luottamuksellisesti. Tietotilinpäätöksessä kerromme, miten keräämme, analysoimme ja käytämme tietoa. Periaate on, että aina kun käsittelemme tietoa, otamme huomioon myös asiakkaan oikeudet ja tietosuojan, sanoo OP Ryhmän tietojohtaja Sameli Mäenpää.

Tekoälyn käyttö on jo osa pankki- ja vakuutuspalveluja. Jos asiakas haluaa käyttää palveluja, hän käyttää myös tekoälyyn perustuvia sovelluksia. Asiakas voi kuitenkin tehdä rajauksia.

– Asiakas voi itse päättää, haluaako hän palveluja, joissa hänen tietojaan hyödynnetään tekoälyn avulla. Hän voi valita, miten hänen omia tietojaan analysoidaan ja hyödynnetään esimerkiksi palvelujen personoinnissa ja markkinoinnissa. Mäenpää arvioi, että tekoälyn ja datan vastuullisen käytön merkitys vain kasvaa tulevina vuosina.

– Kaikki nykyiset ja tulevat liiketoimintamallimme perustuvat tiedon hyödyntämiseen. Tieto on keskiössä aina, kun tuotamme lisäarvoa asiakkaalle. Asiakastieto on tärkein pääomamme, ja sen suojaaminen ja varmistaminen on keskeinen osa liiketoimintaamme.

Sääntely tulee varmasti

Euroopan komissio ei pelkästään laadi ohjeita tekoälyn eettisestä käytöstä. Se haluaa myös säädellä, miten tekoälyä käytetään. Uuden komission tavoitteena on ottaa kantaa siihen, miten regulaatio toteutetaan.

– Varmaa on vain se, että jonkinlainen sääntely alkaa. Se vaihtoehto, että sääntelyä ei tehdä lainkaan,ei ole enää pöydällä. Konkreettiset sisällölliset ehdotukset kuitenkin puuttuvat vielä. Minua huolestuttaa se, että poliittisessa keskustelussa peräänkuulutetaan sääntelyä tietämättä, mihin sen pitäisi kohdistua, sanoo Antti Poikola, toinen Teknologiateollisuuden Tekoälykiihdyttämön vetäjistä. Poikolan mielestä sääntelyn pitäisi kohdistua ennen kaikkea vastuiden selkiyttämiseen.

Tekoälyn kehittäjän pitää kantaa vastuunsa, samoin sen käyttäjän.

– Meillä pitää olla mekanismit, joiden avulla vastuun voi kantaa. Tärkeimpiä niistä ovat selitettävyys ja jäljitettävyys. Jos algoritmi tekee suosituksen tai kategorisoinnin, jälkikäteen pitää voida katsoa, mitkä tekijät ovat vaikuttaneet algoritmin tekemään päätökseen.

Stora Enso on jo vienyt jäljitettävyyden käytäntöön.

– Meillä on ohjeistus, jonka avulla organisaatio tunnistaa, mikä on oikein ja mikä väärin. Lisäksi tiedämme, ketkä ovat vastuussa järjestelmistä. Jos tuntuu siltä, että järjestelmä tekee outoja asioita, on aina joku, jolle asiasta voi kertoa. Sen jälkeen ihminen voi tutkia järjestelmän ja tehdä tarvittavat korjaukset, Samuli Savo kertoo.