Tervehdyspuheenvuoro Tuomaripäivässä Tampereella 4.10.2024

Presidentti Kari Kuusiniemi, korkein hallinto-oikeus

Arvoisa puheenjohtaja, hyvät kollegat, ärade åhörare,

on aina ilo tulla tervehtimään teitä Tuomaripäivään, joka on merkittävä suomalaista tuomarikuntaa yhdistävä ja henkeä kohottava tapahtuma. Mukavan yhdessäolon lisäksi Tuomaripäivä tarjoaa aina kovaa, ajankohtaista asiaa. Niin nytkin. Tarkoitus on pohtia monipuolisesti tekoälyä ja sen merkitystä tuomioistuimille ja meille tuomareille omassa työssämme.

Ymmärrän, että tervehdyspuheenvuorot ovat usein eräänlainen välttämätön paha ennen siirtymistä itse asiaan. Oikeusneuvos Jukka Sipon puheenvuoro oli kuitenkin niin erinomaisesti rakennettu, pohdiskeleva ja analyyttinen katsaus tekoälyyn ja sen rooliin tuomioistuintyössä, että se ansaitsee paikkansa myös sisällöllisin meriitein. Suorastaan houkuttelevaa olisi vain tyytyä toteamaan, kuten selvässä asiassa kollegisessa tuomioistuimessa: kuten JS. Tämä kuitenkin romuttaisi tilaisuuden aikataulusuunnitelman, joten yritän sanoa jotakin täydentävää ja ehkä tuoda esiin joitakin lisänäkökulmia erityisesti käytännön kannalta.

Jo jonkin aikaa on ollut yleistä kansanhuvia, että esitelmöitsijä pyytää tekoälyltä vastauksia käsiteltävään kysymykseen tai ongelmaan. Koetin tuota metodia viimeksi Virastopäällikköpäivillä kesäkuussa, jossa meillä oli presidentti Tatu Leppäsen kanssa keskustelu tuomioistuinten riippumattomuudesta. Copilot kertoi teemasta ”Tatu ja Patu ja tuomioistuinten riippumattomuus” siten, että Tatu ja Patu on suosittu lastenkirjasarja, mutta sillä ei juurikaan ole yhteyttä tuomioistuinten riippumattomuuteen, joka puolestaan on tärkeä oikeusvaltiollinen mekanismi. Sitä vastoin ylituomari Tuula Kivari onnistui esityksessään paremmin: hän sai tekoälyn tuottamaan varsin tyylikkään runon tuomarin riippumattomuudesta; en tosin voi kehua olevani nykyrunouden asiantuntija tai suurkuluttaja.

Tällä kertaa yritän siis tulla toimeen ihan omalla älyllä. Juristit rakastavat määritelmiä, juridiikka on käsitetiedettä. Tekoälystä puhuminen määrittelemättä tarkemmin, minkälaiseen tekoälyyn viittaamme, on kuin saippuapalan metsästämistä kylpyammeessa. Tekoälyä voidaan nykyajan keskeisimmän oikeuslähteen Wikipedian mukaan luonnehtia tietokoneohjelmaksi, joka kykenee tekemään älykkäinä pidettäviä toimintoja, kuten puheentunnistusta tai kääntämistä kielestä toiseen. Tekoälyä käytetään esimerkiksi verkkohakukoneissa, suositusalgoritmeissa, itseohjautuvissa autoissa (varmaan myös liikuttavissa Alepa-roboteista, joita joskus joutuu pelastamaan lumihangesta), automatisoidussa päätöksenteossa sekä generatiivisissa tai luovissa työkaluissa. Koneoppimisen ja generatiivisten kielimallien avulla suoriudumme monimutkaisista, työläsitä tehtävistä huikeasti aiempaa nopeammin.

Voimme siis havaita, että tekoäly on ollut monipuolisesti apunamme jo pitkään. Suorittamamme haut eri tietokannoista, kuten Finlexistä, Curiasta ja Hudocista, ovat olleet arkipäivää vuosikausia. Tekoäly, jolla suurista tietomassoista louhitaan tietoa päätöksenteon tueksi, korvaa useita toimintoja, joiden tekeminen manuaalisesti veisi huomattavasti enemmän aikaa ja olisi virheille alttiimpaa. Esimerkiksi puheiden kirjoittaminen vierailla kielillä on helpottunut. Käännökset varsinkin suurten kielten välillä alkavat olla varsin hyviä. Esimerkiksi englanninkielisen puheen osan kääntäminen ranskaksi tuottaa – ranskaa hallitsevien kollegojeni mukaan – niin hyvän tuloksen, ettei tarkistuskorjauksille juuri ole tarvetta.

Mutta, kulunutta sanontaa käyttääkseni, voimme varmaan sanoa, että tekoäly on hyvä renki, mutta huono isäntä. Samoin tekoälyn käyttämiseen sisältyy useita riskejä, jotka on syytä tunnistaa. Tiedon runsauden ja helpon saatavuuden kääntöpuolena on riski harhaanjohtavan, vinoutuneen tai suorastaan väärän tiedon leviämisestä. Tämän varmaan muistaa ikuisesti se amerikkalainen asianajaja, joka vuoden 2023 kesäkuussa uutisoidun mukaan kirjoitti tuomioistuimelle kannekirjelmän rutiinijutussa ja jossa Chat GPT oli keksinyt mukaan kuvitteellisia oikeustapauksia. Tämä pakotti tuomarin punnitsemaan sanktioita “as the legal community grapples with one of the first cases of AI “hallucinations” making it to court.”

Entä sitten generatiivisen tekoälyn käyttö ratkaisujen tekemisessä tai kirjoittamisessa? Hallinnossa automaattinen päätöksenteko on melko laajasti käytössä. Edelläkävijänä lienee ollut verottaja. Myös Maahanmuuttovirasto on pyrkinyt käyttämään automaatiota päätöksenteossaan. Rutiiniluonteisia verotuspäätöksiä on pitkään tehty koneellisesti, vailla inhimillistä kosketusta. Tällä en tarkoita moittia verotusta inhimillisyyden puutteesta. Asiaan tuli ylimääräinen mutka, kun eduskunnan apulaisoikeusasiamies kyseenalaisti mahdollisuuden tehdä hallintopäätöksiä koneellisesti ilman nimenomaista lainsäädännöllistä tukea. Vertailun vuoksi muuten todettakoon, että Viron korkeimman oikeuden vieraillessa äskettäin korkeimmassa hallinto-oikeudessa kuulimme, että siellä metsänkäyttöilmoituksen johdosta annettavat päätökset katsottiin sinänsä voitavan tehdä automaattisesti, kun laissa ei ollut siihen estettä.

Niin tai näin, nyt meillä hallintolakiin on otettu yleissäännökset mahdollisuudesta käyttää automaattista päätöksentekoa (vuonna 2023 lakiin lisätty 8 b luku). Luvussa säädetään edellytyksistä, joiden on muualla laissa säädetyn lisäksi täytyttävä, jotta viranomainen voi tehdä asiankäsittelyn päättävän ratkaisun automaattisella tietojenkäsittelyllä ilman, että ratkaisun tarkastaa ja hyväksyy luonnollinen henkilö. Viranomainen voi ratkaista automaattisesti asian, johon ei sisälly seikkoja, jotka edellyttävät tapauskohtaista harkintaa, tai johon sisältyvät tapauskohtaista harkintaa edellyttävät seikat virkamies tai muu asian käsittelijä on arvioinut. Ratkaisemisen on perustuttava sovellettavan lain ja etukäteisen harkinnan perusteella laadittuihin julkisen hallinnon tiedonhallinnasta annetussa laissa tarkoitettuihin käsittelysääntöihin. Oikaisuvaatimusta tai siihen rinnastuvaa vaatimusta ei voida ratkaista automaattisesti. Päätöksestä on käytävä ilmi, jos se on ratkaistu automaattisesti ja siihen on voitava hakea maksutta oikaisua.

Automatisoidussa päätöksenteossa rutiiniluonteisissa hallintoasioissa ollaan vielä aika kaukana siitä tilanteesta – ainakin tämän yleisön kannalta katsottuna dystopiasta – jossa generatiivinen tekoäly korvaisi ihmistuomarin. Professori Hannu Tapani Klami kirjoitti jo vuonna 1986 Lakimieheen artikkelin tietokoneesta ja oikeuskulttuurista. Edes hänellä ei voine olla ollut aavistusta oppimiskykyisen tekoälyn tarjoamista mahdollisuuksista. Hän ei uskonut inhimillisen tuomarin päätöksentekokykyä ylittävän päätöstietokoneen kehittämiseen, ennen kuin "onnistumme paljastamaan inhimillistä oikeudellista ajattelua nykyisin hallitsevat heuristiset lainalaisuudet." Luovan, tilanneherkän ajattelun mallintaminen lienee (toivottavasti!) mahdotonta. Äly ei korvaa tietoisuutta.

Jotkut tutkijat väläyttävät pitemmällekin vietyjä ajatuksia ihmistuomarin korvaavista robottituomareista. Kirjassa Rule of Law in a Transitional Spectrum (2024) vero-oikeuden asiantuntija, tohtori Magnus Kristofferson pohtii artikkelissaan ”The Concept of Robot Judges Using Generative Artificial Intelligence and the Rule of Law” tekoälymallien yhteensopivuutta oikeusvaltioperiaatteen ja oikeudenmukaisen oikeudenkäynnin kannalta suhteessa puolueettomuuteen, integriteettiin ja oikeusperiaatteiden noudattamiseen. Tasapaino teknisen tehokkuuden ja inhimillisen arvion (judgment) välillä on keskeinen. Hän päätyy ChatGPT-4-kokeilujensa perusteella siihen raflaavaan lopputulokseen, että generatiivista tekoälyä voitaisiin käyttää robottituomareina tulevaisuudessa ja että ”the future is not necessarily that far away”. Hän antaa provokatiivisesti ymmärtää, että hyväksymme inhimillisen tuomarin toiminnan virhelähteet, vaikka olisi käytössä parempi menetelmä. Hän kuitenkin arvioi, että konetuomareita ei hyväksytä niin pitkään kuin ne tekevät yhdenkin virheen.

Ajattelen, että tekoäly voi toimia tärkeänä apuna tietojen etsimisessä ja kaavamaisten tekstien luomisessa, mutta inhimillinen silaus epätäydellisyyksineenkin tuo ratkaisutoimintaan oman sävynsä. Mieleen tulee rinnastus jalkapallon VAR- eli videotarkistustuomioihin. Oikeusneuvos Sippokin on jalkapallomies. Kun videolta jälkikäteen näemme, että 10 senttimetriä hyökkääjän jalasta oli vastustajan alinta pelaajaa lähempänä maalia, minkä vuoksi komea maali hylätään, ratkaisu on absoluuttisesti ja kirjaimellisesti oikea, mutta tuntuuko se oikeudenmukaiselta? Vai kuuluuko niin jalkapalloon kuin elämään tietty likimääräisen ja riittävän oikeudenmukaisuuden idea? Diego Maradonan jumalan käsi -maali toki olisi voitu VAR-systeemillä ihan perustellusti eliminoida.

Vaikka hyväksyisimmekin ajatuksen ja pyrkimyksen tuomioistuinratkaisun mahdollisimman täydellisestä vapauttamisesta inhimillisistä virhemahdollisuuksista, tekoälyperusteinen ratkaisutoiminta synnyttäisi perustavia kysymyksiä oikeusvaltiollisuuden turvaamisesta. Yksi keskeisistä haasteista on päättää ja selvittää, kuka syöttäisi tiedot tekoälylle tai pikemminkin, mistä se etsisi ne? Kuka luo sen algoritmin eli matemaattisen mallin, jonka mukaan syötetyt tiedot jalostetaan tuomioksi konkreettisessa tapauksessa. Mihin harhaanjohtava data pahimmillaan voi johtaa oikeudellisessa ratkaisutoiminnassakin, kun ajattelemme vaikkapa nykyistä mis- ja disinformaation uhkaa laajemmin yhteiskunnallisessa keskustelussa.

Tekoäly tuottaisi ratkaisun kaiken sen käytössä olevan aineiston pohjalta, aineiston osasia supertehokkaalla prosessoinnilla yhdistäen, mutta sen käyttöön valikoituva aineisto voisi olla tavalla tai toisella vinoutunutta. Oikeudellisen ratkaisutoiminnan kontrolloitavuuden kannalta voidaan pitää ongelmallisena, jos ratkaisun perustana on eräänlainen musta laatikko, jonka sisällön synnystä ei ole tarkkaa käsitystä ja josta ratkaisu sitten johdetaan.

Ett exempel på ett sådant svarta lådan -problem sammanhänger med importskatten på begagnade bilar. I avgörandet HFD 2006:95 hade tullverket som skattemyndighet fastställt beskattningsvärdet på begagnade bilar enligt ett privat företags med statistiska metoder gjorda beräkning. Varken tullverket eller den skattskyldige kunde erhålla uppgifter om att den information och det tillvägagångssätt som låg till grund för beräkningen var korrekta. Förfarandet ansågs inte uppfylla kravet i bilskattelagen och fördraget om upprättandet av Europeiska gemenskapen att ett beskattningssystem inte får ha diskriminerande verkan.

Toki täytyy myöntää, ettei meidän ihmistuomareidenkaan tausta-asettamuksia juurikaan voida kontrolloida. Ainakin monijäsenisissä (muutoksenhaku)tuomioistuimissa dialogi kollegojen kesken voi kuitenkin paljastaa tällaisia tekijöitä edistäen kontrolloitavuutta, kun taas tekoälytuomari tuottaisi ratkaisun yksin. Olisiko sitten Dworkinin Hercules J.? Vai pitääkö lakisidonnaiseen tuomarin työhön jatkossakin sisällyttää inhimillinen kosketus – se tuomarin judicium, jossa lain tiukkaa sanamuotoa evolutiivisesti, tilanneherkästi tulkiten löytyy lakiin perustuva oikeudenmukainen ratkaisu?

Artificiell intelligens i olika former existerar redan, det måste vi acceptera vare sig vi vill det eller inte. Frågan är om vi förblir passiva åskådare och från fall till fall tar ställning till de frågor som dyker upp.

Jotain on jo tuomioistuinlaitoksessakin tehty. Esimerkiksi Pasilan Tuomioistuimet-talossa järjestettiin alkuvuodesta tekoälykoulutus, jota seurasi runsas osallistujakaarti. Kiteytyksenä tapahtumasta voidaan pitää tiedotteen otsikkoa: Jokaisen tuomioistuimessa työskentelevän tulee tuntea vähintään perusasiat tekoälystä. Myös korkeimmassa hallinto-oikeudessa on järjestetty pari sisäistä koulutusta tekoälystä ja muun muassa Euroopan unionin tekoälyregulaatiosta. Sittemmin tämä EU:n tekoälyasetus on tullut voimaan 1.8.2024. Oikeusrekisterikeskus on julkaissut tekoälyohjeet. Näitä ORK:lle hyväksyttyjä ohjeita voidaan hyödyntää hallinnonalan muiden virastojen ohjeistuksissa. Jokainen virasto (mukaan lukien kukin tuomioistuin virastona, luonnollisesti Tuomioistunviraston yhteispalavereissa kokemuksia vaihtaen) hyväksyy itse ohjeensa ja ”tekoälyn käyttötapauksen”, kuten termi kuuluu. Käyttötapauksia voivat olla esimerkiksi tiedonhaku, esitysten luominen ja julkisten tekstien muokkaaminen ja ideointi. Hyväksyminen kussakin virastossa on keskeistä, koska tekoälyn käyttöön liittyy riskejä tietosuojan ja tietoturvallisuuden kannalta. Ohjeen mukaan ORK tarkastaa palvelun ja sovelluksen turvallisuuden.

Olen äskettäin asettanut korkeimman hallinto-oikeuden strategian päivittämistä koskevan työryhmän. Sen toimeksiannossa pyydän työryhmää arvioimaan, missä määrin ja millä tavoin tekoälyn kehittyminen vaikuttaa korkeimman hallinto-oikeuden toimintaan sisäisesti esimerkiksi työmenetelmien kannalta ja toisaalta ulkoisesti eli siltä kannalta, miten tekoälyn käyttäminen esimerkiksi viranomaisten toiminnassa tai asiamiesten kirjelmissä on otettava toiminnassamme huomioon.

Kaiken kaikkiaan tekoälyn hyödyntämisessä ratkaisutoiminnassa ei ole kysymys siitä, että koneet korvaisivat ihmiset. Riikka Koulun, Katri Havun ja Hanne Hirvosen blogikirjoituksessa 20.10.2020 (Regulating AI – is the current legislation capable of dealing with AI?) päädytään toivomukseen: ”instead of focusing on the dystopian fears of machines replacing humans, the interplay of humans and machines takes the centre stage. The question is no longer simply how law should regulate AI. Instead, by drawing attention to the development of meaningful partnerships between humans and AI systems, we are able to ask how the computational turn – supported by effective regulation – can improve our societies as a whole.”

Älkäämme siis peljätkö tulevaa vaan suhtautukaamme tekoälyn kehitykseen myönteisen uteliaasti mutta samalla kriittisesti. Otetaan tekoälystä kaikki irti rutiiniluonteisten tehtävien helpottamiseksi kuitenkin inhimillinen kontrolli säilyttäen.

Toivotan kaikille antoisaa Tuomaripäivää! Jag önskar er alla en givande Domardag!

Julkaistu 4.10.2024