Tällä hetkellä vastaus ei synny lainsäädännöstä, vaan palveluntarjoajien käyttöehdoista. Suuret teknologiayritykset määrittelevät sopimuksissaan, että vastuu jää pääosin käyttäjälle. Käytännössä tämä tarkoittaa sitä, että organisaatio, joka hyödyntää tekoälyä, kantaa riskin, vaikka se ei hallitse itse teknologiaa.
Tämä asetelma on ongelmallinen yrityksille ja julkiselle sektorille, jotka haluavat hyödyntää tekoälyä hallitusti ja vastuullisesti.
Tekoälyn käyttöä voi tarkastella yksinkertaisen mallin kautta, joka muistuttaa henkilöstövuokrausta.
Mukana on kolme osapuolta. Ensimmäinen on kehittäjä, eli yritys, joka rakentaa ja ylläpitää tekoälymallin. Toinen on itse malli, joka syntyy, kun kehittäjä julkaisee ja ottaa sen käyttöön. Kolmas on asiakas, joka hyödyntää mallia omassa toiminnassaan.
Rakenne ei ole uusi. Henkilöstövuokrauksessa vuokrausyritys vastaa työntekijän osaamisesta, kun taas asiakas vastaa siitä, mihin työtä käytetään. Sama logiikka toimii yllättävän hyvin myös tekoälyn kohdalla.
Kun tekoälyä tarkastellaan tämän kolmijaon kautta, vastuunjako voidaan kuvata viiden periaatteen avulla.
Ensinnäkin kehittäjä vastaa siitä, että malli toimii lainmukaisesti ja vastaa sitä, mitä siitä on luvattu. Jos järjestelmää markkinoidaan tietyllä kyvykkyydellä, sen on myös täytettävä tämä lupaus.
Toiseksi käyttäjä vastaa siitä, mihin tekoälyä käytetään. Jos järjestelmää käytetään laittomaan tai sopimattomaan tarkoitukseen, vastuu ei voi siirtyä kehittäjälle.
Kolmanneksi tekoälyn tuottamat lopputulokset kuuluvat käyttäjälle. Tämä vastaa tilannetta, jossa ulkopuolinen resurssi tuottaa työtä osana organisaation toimintaa.
Neljänneksi ennakoimattomissa tilanteissa vastuu kuuluu kehittäjälle, jos käyttäjä on toiminut lain ja ohjeiden mukaisesti. Tällöin keskeinen rooli on vastuuvakuutuksella, joka luo myös taloudellisen kannustimen riskien hallintaan.
Viidenneksi tekoälyn käyttöä koskevat rajoitukset ovat viime kädessä poliittisia päätöksiä. Jos jotain halutaan kieltää, sen tulee perustua lainsäädäntöön, ei yksittäisten yritysten omiin linjauksiin.
Nykytilanteessa keskeinen haaste ei ole teknologia, vaan vastuun jakautuminen sopimuksissa.
Suurilla toimijoilla on mahdollisuus määritellä käyttöehdot siten, että ne rajaavat omaa vastuutaan laajasti. Käyttäjä hyväksyy ehdot, koska vaihtoehtoja on vähän. Lopputuloksena syntyy epätasapaino, jossa riski siirtyy sille osapuolelle, jolla on vähiten vaikutusmahdollisuuksia itse teknologiaan.
Yrityksen näkökulmasta tämä näkyy epävarmuutena. Tekoälyä voidaan hyödyntää, mutta samalla syntyy kysymys siitä, kuka vastaa, jos jokin menee pieleen.
Yksi ratkaisu tähän epätasapainoon on tarkastella tekoälyä oikeudellisena toimijana.
Kyse ei ole siitä, että tekoälylle annettaisiin oikeuksia ihmisen kaltaisena olentona. Kyse on siitä, että sille määriteltäisiin juridinen asema, joka tuo mukanaan velvollisuuksia ja vastuita, samalla tavalla kuin yrityksillä on.
Kun toimijalla on oikeudellinen asema, siihen kohdistuu pakottavaa sääntelyä. Vastuita ei voi siirtää pois pelkillä sopimusehdoilla. Tämä tarkoittaa käytännössä sitä, että myös tekoälyn kehittäjät kantavat vastuunsa järjestelmien toiminnasta.
Samalla syntyy markkinamekanismi, jossa turvallisemmat ja luotettavammat ratkaisut ovat myös taloudellisesti kannattavampia.
Vaikka juridinen kehys on vielä kehittymässä, yritysten ei kannata jäädä odottamaan.
Tekoälyn käyttöönotossa on jo nyt syytä kiinnittää huomiota siihen, miten vastuut on määritelty. Mitä käyttöehdoissa sanotaan? Kuka vastaa virhetilanteissa? Millaisia vakuutuksia toimittajalla on?
Samalla kannattaa tarkastella omia käyttötapauksia kriittisesti. Missä tilanteissa tekoälyä hyödynnetään päätöksenteossa, ja millaisia riskejä siihen liittyy?
Organisaatiot, jotka ymmärtävät vastuunjaon jo nyt, pystyvät hyödyntämään tekoälyä kilpailijoitaan turvallisemmin ja tehokkaammin.
Tekoälykeskustelussa on helppo ajautua pohtimaan tietoisuutta ja etiikkaa. Ne ovat tärkeitä teemoja, mutta ne eivät ratkaise käytännön ongelmia.
Yritysten kannalta keskeistä on vastuu. Kuka vastaa, millä ehdoilla ja millä mekanismeilla?
Kun tähän kysymykseen löytyy selkeä vastaus, myös tekoälyn hyödyntäminen muuttuu ennustettavammaksi. Ja juuri ennustettavuus on se, mitä organisaatiot lopulta tarvitsevat.
Tämä teksti perustuu ajatuskokeeseen tekoälyn juridisesta asemasta. Kirjoittaja ei ole juristi, ja teksti on tarkoitettu keskustelun avaukseksi, ei oikeudelliseksi neuvoksi.