Aikakaudella, jolloin tekoäly ei enää kuulu tieteiskirjallisuuteen vaan on aktiivinen osa jokapäiväistä elämäämme, tämän teknologisen vallankumouksen eettiset ulottuvuudet ovat tulleet liian tärkeiksi sivuutettaviksi. Terveydenhuollosta ja rahoituksesta rikosoikeuteen ja sosiaaliseen kanssakäymiseen, tekoälyn kaikkialle ulottuva läsnäolo muokkaa yhteiskuntaa innostavalla, mutta myös huolestuttavalla tavalla. Vaikka tämä muutosvoima tarjoaa uusia mahdollisuuksia ihmisille, se herättää samalla lukuisia eettisiä kysymyksiä, joihin meidän on pakko vastata.

Johdanto

Eettiset näkökohdat tekoälyn kehittämisessä ja käyttöönotossa eivät ole pelkästään akateemista pohdintaa, vaan ne edellyttävät välitöntä ja jatkuvaa huomiota. Jos näihin huolenaiheisiin ei puututa, on vaarana, että systeemiset ennakkoluulot säilyvät, ja että yleinen luottamus horjuu ja saattaa johtaa innovaatioita tukahduttaviin säännöksiin. Tämä on paradoksi, jota yhdelläkään tekoälyekosysteemin sidosryhmällä ei ole varaa jättää huomiotta.

Kun otetaan huomioon nämä vallitsevat virtaukset, tässä blogikirjoituksessa pyritään tarkastelemaan puitteita, joiden avulla voidaan navigoida tekoälyn sokkeloisessa eettisessä maisemassa. Pyrkimys on tuottaa joukko käytännöllisiä ohjeita. Tämän kehikon avulla pyrin tarjoamaan mukautuvan ja toteuttamiskelpoisen lähestymistavan, jonka avulla voidaan varmistaa, että tekoälyn kehittyessä sen eettinen pohja on riittävän vankka kannattamaan sen käytön mahdollisia seurauksia.

Seuraavissa jaksoissa tarkastelen ensin tekoälylle ominaisia eettisiä haasteita, joita ovat läpinäkyvyys, oikeudenmukaisuus ja reiluus, hyväntahtoisuus, vastuullisuus ja yksityisyys. Tämän jälkeen avaan hieman klassisia normatiivisia eettisiä teorioita – hyve-etiikka, deontologinen etiikkaan ja seuraamusetiikka – jotka tarjoavat perustavanlaatuisia näkökulmia etiikkaan ja moraaliin. Näiden nykyajan huolenaiheiden ja klassisten teorioiden synteesi antaa puitteet käytännönläheisen eettisen suunnitelman hahmotteluun, joka on suunniteltu yhdistämään teoriaa ja käytäntöä ja joka on samalla sopeutuva tekoälyalalle ominaiseen muutokseen.

Osa I: Tekoälyn uudet eettiset kysymykset

Viime vuosien aikana tutkimuslaitokset, julkinen sektori sekä yritykset ovat luoneet eettisiä periaatteita ja ohjeita tekoälyn eettiseen ja luotettavaan käyttöön[1]. Näistä selvityksistä nousee esiinkeskeisiä eettisiä huolenaiheita, jotka tämänhetkinen tekoälyn käyttö ja teknologia nostaa esiin. Viisi keskeisintä nostetaan seuraavassa tarkemmin esiin.

Avoimuus

Mustan laatikon algoritmien ja arvoituksellisten päätöksentekokoneiden aikakaudella tekoälyn avoimuuden tarve ei ole koskaan ollut suurempi. Avoimuus ei ole vain hyve, vaan välttämättömyys, joka edistää yleistä luottamusta ja helpottaa eettistä valvontaa. Esimerkkinä voidaan mainita luottopisteytyksessä käytettävät koneoppimismallit. Läpinäkymätön algoritmi voi ylläpitää taloudellista eriarvoisuutta, usein ilman että heikommassa asemassa olevat osapuolet edes tietävät, miksi heiltä evätään luotto. Näin ollen avoimista tekoälyprosesseista tulee demokraattisten arvojen ylläpitämisen kulmakivi teknologisesti kehittyneessä yhteiskunnassa.

Oikeudenmukaisuus ja reiluus

Jos avoimuus on se linssi, jonka läpi tarkastelemme tekoälyä, oikeudenmukaisuus ja reiluus ovat ne puitteet, joissa tulee toimia. Algoritmit eivät synny ennakkoluuloisina, vaan niitä muokkaavat ihmisten päätökset ja historialliset tiedot, jotka molemmat ovat täynnä yhteiskunnallisia ennakkoluuloja. Syrjivät poliisialgoritmit tai terveydenhuoltojärjestelmät, jotka tarjoavat erilaista kohtelua sosioekonomisen aseman perusteella, toimivat varoittavana esimerkkinä. Oikeudenmukaisuuden ja reiluuden saavuttaminen tekoälyssä on muutakin kuin pelkkiä algoritmisia mukautuksia; se edellyttää, että mietitään uudelleen, miten keräämme tietoja, määrittelemme tavoitteet ja arvioimme tuloksia.

Hyväntahtoisuus

Hippokrateen sanakirjasta lainattu periaate, hyväntahtoisuus, tarkoittaa tekoälyn yhteydessä sitä, että ei saa aiheuttaa vahinkoa. Digitaalisessa maailmassa vahingot ovat kuitenkin monitahoisia – ne vaihtelevat automaattisten ajoneuvojen aiheuttamista fyysisistä vahingoista manipuloitujen sosiaalisen median syötteiden aiheuttamiin psykologisiin vaikutuksiin. Surullisenkuuluisa tapaus, jossa autonomiset autot asettivat matkustajiensa turvallisuuden jalankulkijoiden edelle, on selkeä muistutus siitä, miten tekoäly, jos sitä ei säädellä asianmukaisesti, voi tahattomasti asettaa yhden hyvinvoinnin muodon toisen edelle ja aiheuttaa siten tahatonta vahinkoa.

Vastuu

Kysymys tekoälyjärjestelmien vastuusta on eettisten, oikeudellisten ja sosiaalisten ulottuvuuksien Gordonin solmu. Kun tekoäly kehittyy jatkuvasti, ihmisen päätöksenteon ja algoritmisen tuotoksen välinen raja hämärtyy yhä enemmän. Kuka kantaa vastuun siitä, että tekoälyn diagnostiikkatyökalu antaa virheellisen lääketieteellisen analyysin? Ovatko vastuussa kehittäjät, terveydenhuollon ammattilaiset vai kehys, jossa tekoäly toimii? Ihmisen ja koneen toimijuuden monimutkainen vuorovaikutus edellyttää kokonaisvaltaista näkemystä vastuusta, jossa otetaan huomioon lukuisat voimat, jotka muokkaavat tekoälyn käyttäytymistä.

Yksityisyys

Hyperyhteyksien maailmassa, jossa dataa kutsutaan usein ”uudeksi öljyksi”, yksilön yksityisyyden suojaaminen on ensiarvoisen tärkeää. Tekoälyn ahnas tiedonhimo – henkilökohtaisen, arkaluonteisen tai muunlaisen – aiheuttaa eettisiä huolenaiheita, jotka eivät ole vain teoreettisia vaan myös erittäin seurauksellisia. Olipa kyse sitten luvattomasta kasvontunnistusteknologiasta tai dataan perustuvasta, valvontaan rajoittuvasta yksilöllisestä mainonnasta, panokset ovat korkeat. Yksityisyyden kunnioittamisessa tekoälyn yhteydessä ei ole kyse pelkästään tietojen turvaamisesta, vaan myös yksilön itsemääräämisoikeuden säilyttämisestä digitalisoituneessa maailmassa.

Esimerkki: Ennakoiva tekoälyjärjestelmä poliisitoimintaa varten Kuvitellaan tekoälyjärjestelmä, joka on suunniteltu auttamaan lainvalvontaviranomaisia ennustamalla, missä ja milloin rikoksia todennäköisesti tapahtuu. Tavoitteena on parantaa yleistä turvallisuutta ja optimoida resurssien kohdentaminen, mutta eettiset ulottuvuudet ovat moninaiset ja ulottuvat tietosuojasta oikeuteen, avoimuuteen ja paljon muuhun.   Ennustavan poliisitoiminnan tekoälyjärjestelmämme yhteydessä esimerkiksi seuraavat kysymykset:
– Avoimuus: Mitä algoritmeja käytetään ja miten ne määrittelevät rikollisuuden kriisipesäkkeet?
– Oikeudenmukaisuus ja tasapuolisuus: Miten järjestelmä varmistaa, että se ei ylläpidä vähemmistöyhteisöihin kohdistuvia järjestelmällisiä ennakkoluuloja?
– Vastuu: Millä toimenpiteillä estetään ennakoivan tiedon väärinkäyttö?
Esimerkki

Kohti kattavaa eettistä kehystä

Kun on selvitetty tekoälyn eettisiä kysymyksiä – avoimuudesta ja oikeudenmukaisuudesta aina vastuuseen ja yksityisyyteen – on selvää, etteivät nämä ole yksittäisiä kysymyksiä. Ne muodostavat pikemminkin monimutkaisen eettisen kokonaisuuden ulottuvuuksia, jotka vaativat kokonaisvaltaisempaa lähestymistapaa. Näiden haasteiden käsitteleminen paloittain voi johtaa yhä uusiin ongelmiin, jokaisen näennäisesti ratkaistun ongelman kohdalla syntyy uusi, ehkä vielä edeltäjäänsä mutkikkaampi ongelma.

On siis välttämätöntä luoda eettinen kehys, joka ei tyydy vain reagoimaan nykyisiin haasteisiin, vaan joka on riittävä myös, ainakin osittain, ennakoimaan tulevia eettisiä maisemia. Tämä on erityisen tärkeää nopeasti kehittyvällä tekoälyn alalla, jossa nykyiset eettiset normit eivät välttämättä pysy teknologisen kehityksen kyydissä.

Voimme ottaa mukaan ennakointiin klassisia normatiivisia eettisiä teorioita ja yhdistä niitä esiin nouseviin eettisiin kysymyksiin. Kyseessä on ponnistus, joka vaatii uskollisuutta filosofiselle kurinalaisuudelle sekä mukautuvuutta teknologisiin vivahteisiin – jos niin halutaan, teorian ja käytännön yhdistäminen.

Seuraavaksi tarkastelemme klassisia normatiivisia eettisiä teorioita – hyve-etiikkaa, velvollisuusetiikkaa ja seuraamusetiikkaa – perustavanlaatuisina rakennuspalikoina sille, mitä ehdotamme mukautuvaksi, käytännölliseksi ja ennen kaikkea toteuttamiskelpoiseksi eettiseksi suunnitelmaksi tekoälyn kehittämiselle ja käyttöönotolle.

II osa: Klassiset normatiiviset eettiset teoriat

Normatiivinen eettinen teoria kertoo meille, millaisia meidän tulisi olla ja mihin pyrkiä. Kolme keskeistä normatiivista eettistä teoriaa ovat hyve-etiikka, velvollisuusetiikka ja seurausetiikka[2]. Nämä ovat pitkään kehitettyjä eettisiä teorioita ja ne tarjoavat hyvän lähtökohdan eettisille pohdinnoille.

Hyve-etiikka

Aristoteleen ajoilta peräisin oleva hyve-etiikka asettaa eettisen käyttäytymisen vastuun yksilön moraaliselle luonteelle. Tekoälyn yhteydessä tämä voisi viitata niiden moraaliseen luonteeseen, jotka suunnittelevat, kehittävät ja ottavat käyttöön näitä järjestelmiä. Se herättää kysymyksen: Mitkä hyveet, kuten rehellisyys, oikeudenmukaisuus tai kohtuullisuus, ovat olennaisia tekoälyn eettisen kehittämisen kannalta? Hyve-etiikka toimii koetinkivenä, joka muistuttaa meitä siitä, että teknologiat heijastavat niiden rakentajien asettamia arvoja, ja korostaa siten eettisten hyveiden vaalimisen välttämättömyyttä alusta alkaen.

Velvollisuusetiikka

Immanuel Kantin kaltaisten filosofien teoksista alkunsa saanut velvollisuusetiikka käsittelee moraalisia velvollisuuksia, sääntöjä ja velvoitteita. Tekoälyssä tämä voi ilmetä ennalta määritettyinä eettisinä ohjeina tai normeina, joita on noudatettava tuloksista riippumatta. Esimerkiksi lääketieteelliseen diagnostiikkaan suunnitellun tekoälyjärjestelmän pitäisi olla velvollinen suojelemaan potilaan salassapitovelvollisuutta riippumatta mahdollisista hyödyistä, joita tietojen jakamisesta voisi koitua. Velvollisuusetiikan periaatteet voivat siis toimia eettisinä suojakaiteina, jotka pitävät tekoälyn kehityksen kurissa.

Seurausetiikka

Seurausetiikka, joka on usein synonyymi utilitarismille, toiminnan moraalista arvoa arvioidaan sen tulosten perusteella. Se herättää kysymyksen: Tuottaako tekoälyjärjestelmä suurinta hyvää suurimmalle joukolle? Vaikka seurauseettisyys voi oikeuttaa tekoälyn nopean käyttöönoton yhteiskunnallisten hyötyjen vuoksi, se varoittaa myös hillittömästä innostuksesta. Seurausajattelun avulla voitaisiin kritisoida tekoälyjärjestelmiä, jotka optimoivat tehokkuuden, mutta pahentavat tuloeroja, ja pakottaa meidät näin punnitsemaan kustannuksia ja hyötyjä kokonaisvaltaisemmin.

Kohti moniulotteista tekoälyn eettistä lähestymistapaa

Näiden klassisten teorioiden yhdistäminen tekoälyn tämänhetkisiin eettisiin pohdintoihin tarjoaa puitteen, joka reagoi esiin nouseviin eettisiin kysymyksiin ja samalla pohjautuu periaatteisiin, joita voidaan hyödyntää uusien tapausten pohdinnassa. Edellinen klassisten normatiivisten eettisten teorioiden esittely tarjoaa meille välineitä eettiseen harkintaan. Vaikka kukin teoria tarjoaa oman näkökulman, niin on kuitenkin ilmeistä, ettei mikään teoria yksinään voi tarjota kattavaa eettistä kompassia nopeasti kehittyvälle tekoälyn käytölle. Tarvitaan integroitua, moniulotteista lähestymistapaa tekoälyn etiikkaan – sellaista, jossa näitä eettisiä teorioita kyetään käyttämään yhdessä. Tällaisen lähestymistavan pitäisi olla yleispätevä, mutta samalla riittävän ketterä mukautuakseen niihin erityisiin eettisiin haasteisiin, joita tekoälyn eri alat väistämättä kohtaavat.

Tutkittaessa ennakoivaa poliisijärjestelmäämme:  
– Hyve-etiikka: Esimerkkinä tekoälyn kehittämiseen osallistuvista henkilöistä: ovatko heidän hyveitään esimerkiksi oikeudenmukaisuus ja avoimuus?
– Deontologinen etiikka: Ohjaavatko kehitysprosessia määritellyt moraaliset säännöt, kuten ”Älä käytä historiallisia tietoja, jotka sisältävät puolueellisia poliisikäytäntöjä”?
– Seurausetiikka: Johtaako tekoälyjärjestelmän kokonaisvaikutus suurempaan yhteiskunnalliseen hyötyyn, kuten rikollisuuden määrän merkittävään vähenemiseen loukkaamatta kansalaisvapauksia?  
Esimerkki

Osa III: Tekoälyn kehittämisen ja käyttöönoton pragmaattinen eettinen suunnitelma

Moniulotteinen eettinen synergia

Suunnitelma lähtee liikkeelle siitä, että tekoälyn eettinen kestävyys syntyy monien ulottuvuuksien synergiasta: perinteisestä etiikasta, esiin nousevista eettisistä periaatteista ja kyseisen tekoälyalan käytännön erityispiirteistä. Esiin nousevia eettisiä haasteita tarkastellaan perinteisten eettisten teorioiden näkökulmista. Nämä tarjoavat usein riittävän erilaiset tulokulmat, jotta eettisiin kysymyksiin ja seurauksiin päästään käsiksi. Keskustelun kautta voidaan helpommin tällöin päätyä eettisesti kestäviin ratkaisuihin.

Keskeiset osatekijät

Perinteisten normatiivisten eettisten teorioiden käytön lisäksi täytyy myös ottaa käyttöön menetelmät, joilla voidaan varmistaa, että pysytään nopeasti kehittyvän teknologian mukana. Näitä menetelmiä ovat:

  • Eettiset auditoinnit: Tekoälyjärjestelmien säännölliset tarkastukset, joissa arvioidaan niiden eettistä toimintaa ennalta määriteltyjen standardien perusteella, jotka perustuvat sekä klassisiin että uusiin eettisiin periaatteisiin.
  • Työntekijöiden koulutus: Etiikka ei ole vain teoriaa, vaan myös elettyä elämää. Eettistä päätöksentekoa koskevat työntekijöiden koulutustilaisuudet ovat tärkeä osa tätä suunnitelmaa.
  • Sidosryhmien sitouttaminen: Koska tekoäly vaikuttaa moniin eri sidosryhmiin kehittäjistä loppukäyttäjiin, suunnitelmamme sisältää mekanismeja erilaisten eettisten näkökulmien kartoittamiseksi.

Sopeutumiskyky ja tulevaisuudenkestävyys

Tämän lähestymistavan keskeinen piirre on sen mukautuva luonne. Kannustan iteratiivisen eettisen pohdinnan kulttuuriin, joka mahdollistaa säännölliset päivitykset teknologian kehityksen ja kehittyvien yhteiskunnallisten normien mukaisesti.

Kyseessä ei ole staattinen, jähmettynyt kehikko, vaan kehittyvä asiakirja, jonka tavoitteena on kasvaa tekoälyalan mukana, jota se pyrkii ohjaamaan. Palautesilmukat, yhteisön panos ja säännölliset tarkistukset ovat ne osat, jotka antavat tälle suunnitelmalle sen dynaamisuuden.

Sovellettaessa pragmaattista eettistä suunnitelmaa ennakoivaan tekoälyyn poliisitoiminnassa:  
– Eettiset tarkastukset: Säännöllisiä tarkastuksia olisi tehtävä sen arvioimiseksi, noudattaako tekoälyjärjestelmä vakiintuneita eettisiä normeja ja mahdollisia tietosuojaa ja oikeudenmukaisuutta koskevia oikeudellisia määräyksiä.
– Työntekijöiden koulutus: Tekoälyn suunnitteluun, kehittämiseen ja käyttöönottoon osallistuvien henkilöiden olisi osallistuttava eettiseen koulutukseen, jossa keskitytään sekä perinteisiin että uusiin eettisiin periaatteisiin, jotka liittyvät lainvalvontaan ja datatieteeseen.
– Sidosryhmien sitouttaminen: Yleisen mielipiteen ja eettisten huolenaiheiden kartoittamiseksi voitaisiin järjestää yhteisöfoorumeita, ja nämä näkemykset voitaisiin ottaa huomioon järjestelmän jatkuvissa mukautuksissa.  

Koska yhteiskunnalliset normit ja teknologiat kehittyvät, suunnitelma olisi päivitettävä, jotta siihen voidaan sisällyttää uusia eettisiä näkökohtia, kuten tekoälyä ja poliisitoimintaa koskevat uudet oikeudelliset säädökset.   Tätä suunnitelmaa käyttämällä ennakoivan poliisijärjestelmän eettisiä ongelmia voidaan järjestelmällisesti tutkia, käsitellä ja parantaa iteratiivisesti.  
Esimerkki

Yhteenveto

Käytännönläheinen eettinen suunnittelu tekoälyn kehittämistä ja käyttöönottoa varten on kuitenkin vain lähtökohta. Vasta, kun yrityksissä on luotu tämän kaltainen perusta, niin se kykenee käyttämään tekoälyä vastuullisesti. Meidän yhteinen velvollisuutemme varmistaa, että moraaliset kompassimme ovat hyvin kalibroituja ja riittävän monipuolisia navigointiin mielenkiintoisen ja epäilemättä myös haastavan tulevaisuuden edessä.

Käytännönläheinen lähestymistapa lähtee liikkeelle nykyisten suurimpien eettisten tekoälyn käyttöä koskevien eettisten kysymysten tunnistamisesta. Näitä voidaan pohtia perinteisten normatiivisten eettisten teorioiden valossa. Toiminnan tulee olla jatkuvasti kehittyvää ja sitä varten täytyy pohtia, kuinka toiminnan laadunvarmistus toimii (eettiset auditoinnit), kuinka sovittuja menetelmiä käytetään (työntekijöiden koulutus) sekä kuinka varmistetaan riittävän laajan joukon kuuleminen (sidosryhmien sitouttaminen).


[1] Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature machine intelligence, 1(9), 389-399.

[2] Hyvän tiivistelmän näistä tarjoaa Juhani Pietarinen filosofia.fi sivulla artikkelissaan ”Etiikka”, https://filosofia.fi/fi/ensyklopedia/etiikka#Normatiivisen%20etiikan%20suuntauksia