Projektien resursointia tekoälyavusteisesti
Tekoälyn hyödyntäminen rekrytoinnissa ja työtehtävien jaossa on noussut viimevuosina merkittäväksi puheenaiheeksi. Maailman johtavien yritysten näyttävät epäonnistumiset ja eettisesti kyseenalaiset toimintamallit ovat pakottaneet viranomaiset ja kehittäjäyritykset reagoimaan tilanteeseen.
Sami Laine
17.2.2023

Tekoälyn hyödyntäminen rekrytoinnissa ja työtehtävien jaossa on noussut viimevuosina merkittäväksi puheenaiheeksi. Maailman johtavien yritysten näyttävät epäonnistumiset ja eettisesti kyseenalaiset toimintamallit ovat pakottaneet viranomaiset ja kehittäjäyritykset reagoimaan tilanteeseen. Tuleva lainsäädäntö tulee asettamaan merkittäviä vaatimuksia tekoälyratkaisuille. Luotettava tekoäly on kuitenkin muutakin kuin vain lainmukaista ja auditoitavaa – se on myös hyödyllistä ja hyveellistä.

Tekoäly arvioi työntekijöitä

Amazonin väitetään optimoivan varastotyöläisten työtä inhimillisyyden rajoilla – taukoihin ei jätetä aikaa ja tehottomuudesta seuraa automatisoitu irtisanominen. Deliveroo puolestaan joutui luopumaan ruokalähettien tehokkuutta mittaavasta tekoälystään, koska sen todettiin rikkovan työsyrjintälakeja italialaisessa oikeudessa. Oikeuden mukaan tekoälynkin pitää noudattaa lakia, eikä se saa syrjiä työntekijöitä esimerkiksi asettamalla heidät eriarvoiseen asemaan tehokkuuden laskiessa laillisten taukojen, sairaslomien, lakkojen tai muiden vastaavien lakisääteisten poissaolojen vuoksi.

Amazon kokeili tekoälyä rekrytoinnissakin, mutta joutui lopettamaan sen käyttämisen naisia syrjivän algoritmin aiheuttaman kohun vuoksi. Samaan aikaan tekoälyä käytetään kuitenkin rekrytoinnissa hyvinkin paljon erimerkiksi hakemusten esikarsinnassa sekä erilaisissa persoonallisuus- ja soveltuvuustesteissä.

Työntekijöiden työsuoritusten arvioinnin ja rekrytoinnin tekoälyratkaisujen näyttävät epäonnistumiset sekä laajamittaiset epäselvyydet ovat pakottaneet viranomaiset reagoimaan tilanteeseen. Euroopan Unionin tulevassa tekoälylainsäädännössä rekrytointi ja työnjako ovat määritelty korkean riskin järjestelmiksi, ja niitä tulee koskemaan muita tiukempi säätely.

Tekoälyyn tarvitaan luotettavuutta

Maailmalla on päädytty lähes täyteen yksimielisyyteen siitä, että tekoälyn pitäisi olla luotettava. Tätä mieltä on esimerkiksi Euroopan Unioni, joka on kehittänyt oman Luotettavan Tekoälyn viitekehyksensä ja ohjeistuksensa. Kyseinen viitekehys perustuu vahvasti länsimaiseen normatiiviseen etiikkaan.

Normatiivinen etiikka on yksinkertaistetusti ajattelun osa-alue, jossa pohditaan mitkä asiat ovat hyviä tai oikein sekä mitkä puolestaan pahoja tai väärin. Normatiivisessa etiikassa on tunnistettu kolme pääasiallista ajattelutapaa: seurausetiikka, velvollisuusetiikka ja hyve-etiikka. Tästä voikin päätellä, että luotettavan tekoälyn tulee tuottaa hyödyllisiä seurauksia, sen tulee noudattaa sovittuja velvollisuuksia ja kunnioittaa oikeuksia sekä sen tulisi pyrkiä seurauksista ja säännöistä riippumatta myös hyveellisiin tavoitteisiin.

Maailmassa ei kuitenkaan ole olemassa yhteisesti hyväksyttyjä eettisiä normeja tai ajattelumalleja – arvot ja ajattelutapa vaihtelee niin kulttuurien, suppeampien ihmisryhmien kuin yksilöidenkin kesken. Tästä seuraa se, kaikilla on hieman toisistaan poikkeavia näkökulmia ja painotuksia siihen mitä luotettavuus käytännössä tarkoittaa. Haasteellisuutta lisää se, että luotettavuuteen vaikuttavat tarpeet ovat usein kiistanalaisia ja jopa keskenään ristiriitaisia. Tiivistetysti toisen hyöty on toisen haitta eivätkä kaikki ajattele asioista samalla tavalla.

Edellä kuvatun vuoksi tai siitä huolimatta maailmalta löytyy valtava määrä erilaisia Luotettavan Tekoälyn viitekehyksiä, jotka yrittävät asettaa kaikille yhteisiä normeja ja toimintamalleja. Me Siilissä päädyimme kuitenkin toteamaan, että yksittäisen auktoriteetin määrittelemien sääntöjen ja arvojen sijaan pyrimme tunnistamaan kuhunkin tilanteeseen tarvittavia luotettavuuden elementtejä ja toisaalta pyrimme auttamaan kutakin toimijaa kehittämään heidän omia arvojaan tukevaa luotettavuutta.

Tekoäly avustaa projektien resursoinnissa

Siili Solutions Oyj on ohjelmistojärjestelmien luovaan suunnitteluun ja tekniseen toteutukseen erikoistunut konsulttiyritys. Lyhyellä aikavälillä tavoitteemme on hankkia osaavaa henkilöstöä, jota puolestaan vuokrataan asiakasyrityksille toteuttamaan heidän tarpeitaan. Lyhyellä aikavälillä optimaalinen vuokrauskin voi kääntyä helposti pitkän aikavälin tappioksi, mikäli toimeksianto ei vastaakaan asiantuntijan henkilökohtaisia mielihaluja. Tällainen toimeksianto johtaa usein irtisanoutumiseen – jopa suoranaiselle kilpailijalle siirtymiseen. Pitkällä aikavälillä haasteena onkin siten henkilöstön osaamisen kehittäminen kilpailukykyiseksi, osaamisen kohdentaminen asiakasyritysten muuttuviin tarpeisiin sekä asiantuntijoiden henkilökohtaisen toiveiden huomioinen.

Edellä mainitun haasteen hallitsemiksi Siili kehitti aiempina vuosina osaamisenhallintaohjelmisto Knomen, jonka avulla asiantuntijat voivat ylläpitää itse osaamisportfoliotaan. Ohjelmiston avulla kerätään hyvin vapaamuotoisesti tietoja asiantuntijoiden osaamisesta, työkokemuksesta, koulutuksesta, sertifikaateista ja vastaavista henkilökohtaisista ominaisuuksista. Siilissä aiemmin teknologiajohtajana työskennellyt Erkka Niemi väitteli tohtoriksi tähän liittyvästä asiantuntijoiden osaamisen kehittämisestä ja kehittämisen tukemisesta ohjelmistoratkaisulla.

Knome-järjestelmällä työntekijät voivat hallita itse omaa osaamisportfoliotaan. Tiedot jaetaan läpinäkyvästi kaikille, jotta yksittäiset asiantuntijat voivat oppia tuntemaan toisensa – Know Me.

Knomen avulla Siilissä päästiin eroon alkuperäisestä tilanteesta, jossa CV-tietoja ylläpidettiin tiedostoina erilaisissa hakemistorakenteissa. Haasteeksi jäi kuitenkin se, että asiantuntijalähtöisen ja vapaatekstimuotoisen tietoaineiston laatu jäi hajanaiseksi sekä osin heikosti päivitetyksi. Parhaiden asiantuntijoiden haarukoiminen satojen konsulttien joukosta oli yhä haasteellista, vaikka tilanne paranikin alkuperäisestä tilanteesta.

Käytännössä esimerkiksi yksi henkilö saattoi kertoa olevansa rooliltaan ”Data Architect”-asiantuntija, toinen kuvasi täsmällisemmin osaavansa erityisesti ”Data Architecture”-menetelmiä ja kolmannella oli kokemusta ”Embarcadero Data Architect”-työvälineestä. Toisaalta liiketoimintalähtöiseen kehittämiseen soveltuvia asiantuntijoita piti etsiä useilla rinnakkaisilla sanoilla, kuten ”Enterprise Architect”, ”Business Architect” tai ”Service Designer”. Sama kirjainyhdistelmä voi tarkoittaa montaa eri asiaa tai samaa asiaa voitiin kuvata monella eri termillä.

Ohjelmistokielien tai -järjestelmien lukemattomat eri versiot saattavat olla teknisen asiantuntijan mielestä tärkeitä osaamisen kuvauksessa, mutta toisaalta he eivät välttämättä mainitse ollenkaan yleisiä ketterään kehittämiseen, kommunikaatioon tai määrittelyyn liittyviä osaamistaan. Pienet tulkintaerot käsitteiden välillä menivät helposti ristiin, kun samoja sanoja käytetään eri tavalla eri koulutustaustaisten henkilöiden kesken.

Yllä kuvattuun ongelmaan kehitettiin Siili Seeker-ohjelmisto, joka on käytännössä algoritminen päätöksenteontukijärjestelmä. Uuden käyttöliittymän kautta myyjät ja ryhmänjohtajat voivat käytännössä pudottaa asiakkaan tarjouspyynnön tekstit vapaatekstikenttään, jonka jälkeen Seekerin algoritmit tunnistavat asiakastarpeista avainsanat, etsivät näihin sopivia asiantuntijoita sekä listaavat ne painokertoimien mukaiseen järjestykseen.

Seeker-järjestelmällä voidaan etsiä asiantuntijoita Knomen laajoista tietoaineistoista. Seeker listaa avainsanojen perusteella parhaiten tehtävään soveltuvat henkilöt soveltuvuusjärjestyksessä.

Tekoälyn luotettavuuden parantamiseen tarvitaan menetelmiä

Siili on mukana Turun yliopiston koordinoimassa Artificial Governance and Auditing-projektissa (AIGA), jossa kehitämme yhdessä muiden suomalaisten yritysten kanssa tekoälyn tuottamien päätösten luotettavuuden, läpinäkyvyyden ja ymmärrettävyyden vahvistamiseen liittyvää ymmärrystä ja menetelmiä. Projektin aikana totesimme hyvin nopeasti, että eettisten näkökulmien ja yksittäisten vaatimusten välillä on usein perustavanlaatuisia ristiriitoja. Päättelimme tarvitsevamme tekoälyn luotettavuuden arviointi- ja kehittämismenetelmän, joka ei olisi sidottuja yksittäisten kulttuurien tai toimittajayritysten määrittelemiin päälle liimattuihin eettisiin arvomalleihin. Me Siilissähän emme halua pakottaa asiakkaita sen enempää EU:n, IBM:n, Gartnerin kuin kenenkään muunkaan arvokehikoihin – asiakas saa itse päättää minkälaista maailmankuvaa ja toimintamallia haluaa edistää.

Toinen tärkeä tavoitteemme oli menetelmän soveltuminen kaltaisemme keskisuuren konsulttiyrityksen palvelumalliin – iteratiiviseen ja konkreettiseen toimintamallien ja ohjelmistoratkaisujen kehittämiseen monitoimittajaympäristössä. Arviointimenetelmän löydösten tuli siis kääntyä sujuvasti ja käytännönläheisesti kehityskohteiksi ketterän kehittämisen kehitysjonoon. Yllä mainittujen lähtökohtien kautta kehitimme AIGA-projektissa Luotettavuuden Arviointimenetelmän. Ulkoa tuotujen arvokehikkojen sijaan sillä perehdytään ensin asiakkaan tekoälyratkaisun toiminnalliseen ympäristöön sekä tämän jälkeen havainnoista tunnistetaan kyseiseen tapaukseen liittyviä seuraus-, velvollisuus- ja hyve-eettisiä tarpeita sekä toiveita.

Luotettavuuden kehittämistä käytännössä

Huomasimme aiemmin, että Seeker-ohjelmiston luotettavuutta tulisi kehittää, jotta saisimme siitä enemmän hyötyä. AIGA-projektissa taas olimme päätyneet kehittämään tähän tarkoitettua kehitysmenetelmä. Päätimme siis testata kehittämäämme arviointimenetelmää aidossa toimintaympäristössä – Siili Seeker-ohjelmiston luotettavuuden kehittämisessä.

Arviointikierroksen haastatteluissa selvisi, että Seeker-ohjelmisto koettiin käyttäjien puolelta hyödylliseksi, mutta sen tuloksiin ei kuitenkaan täysin luotettu. Hakutuloksista puuttui soveltuvia asiantuntijoita ja sieltä löytyi välillä epäolennaisia asiantuntijoita. Suositukset eivät olleetkaan täysin luotettavia taustalla vaikuttavien tiedonlaatuongelmien ja toisaalta järjestelmän toiminnan läpinäkymättömyyden vuoksi. Suositeltujen asiantuntijoiden listalla pääsi hyvin alkuun asiakastarpeen kartoittamisessa ja sen avulla oli hieman ketterämpää toteuttaa monipuolisia hajanaisista tietoaineistoista. Todellinen resursointipäätös vaatii yhä kuitenkin paljon tietojen tarkastamista alkuperäisestä Knome-järjestelmästä sekä asiantuntijoilta itseltään. Asiakkaatkaan eivät osaa kuvata tarpeitaan täydellisesti määrämuotoisina avainsanoina.

Arviointikierroksen havaintojen avulla tunnistimme monia haasteita normatiivisen etiikan eri näkökulmista. Esimerkiksi järjestelmän hyötyä parantaisi se, että Seeker osaisi tunnistaa myös projektivaihtoja jo allokoitujen konsulttien kesken. Tästä hyötyisivät sekä asiakkaamme että mahdollisesti Siili itse, koska asiantuntijat pääsisivät heille entistä paremmin soveltuviin toimeksiantoihin. Velvollisuusetiikan näkökulmasta huomattiin, että hakujen kohteena olevien asiantuntijoiden tietojen tarkasteluoikeuksien laajentaminen hakutuloksiin mahdollistaisi palautesyklin, jota he voisivat käyttää omien tietojensa parantamiseen tai uusien koulutustarpeiden tunnistamiseen. Hakutuloksethan olivat usein heikkoja epäyhtenäisesti käytettyjen käsitteiden ja puutteellisten kirjauksien vuoksi. Hyveellisyyden näkökulmasta olisi taas tärkeää huomioida paremmin asiantuntijoiden henkilökohtaiset toiveita. Suosituksissa tulisi painottaa heille mieluisia taitoja sekä välttää heille epämieluisien toimeksiantojen ehdottamista. Tämä olisi järkevää senkin vuoksi, että tällaisia tietoja on jo kerätty valmiiksi taustalla olevaan Knome-järjestelmään ja Siilin sisäinen eettinen ohjeistus mahdollistaa konsulteille kieltäytymisen itselleen epäeettisiksi kokemistaan toimeksiannoista.

Luotettavuuden arviointimenetelmä osoittautui monessa mielessä toimivaksi menetelmäksi – haastateltavat loppukäyttäjät pitivät siitä, että heitä haastettiin ajattelemaan päivittäisiä rutiinejaan laajemmin. Meitä tutkijoita ja kehittäjiä menetelmä taas auttoi tutustumaan laaja-alaisesti käyttötapaukseen, jonka vuoksi kykenimme ideoimaan laajemmin konkreettisia kehitysehdotuksia. Mitkä kehitysehdotukset päätyvät aikanaan toteutukseen ja miten suuria muutoksia ne vaativat onkin sitten toinen asia. Monet haasteet ja kehittämistarpeet olivat itseasiassa varsinaisen tekoälyratkaisun ulkopuolella yrityksen toimintamalleissa, lähdejärjestelmissä ja vaikkapa ammattilaisten koulutustaustoihin liittyvissä terminologioissa.

Sami Laine on toiminut 20 vuoden ajan tiedonhallinnan kehittäjänä, konsulttina, kouluttajana ja tutkijana useilla eri toimialoilla. Hänen erikoisalaansa on liiketoimintalähtöinen tiedonhallinta strategioista käytännön toteutuksiin asti. DAMA Finland ry:n hallituksen puheenjohtajana hän edistää tiedon johtamisen hyvien käytäntöjen tunnettavuutta ja leviämistä osana kansainvälistä DAMA International-yhteisöä.

Artikkeli on ensimmäistä kertaa julkaistu Sytyke -lehdessä.
Lisätietoja www.sytyke.org

Kuva Jo Szczepanska Unsplash

Suositellut

Uusimmat