Sadonkorjuun aikaan kismittää: Miksi chatbotit ovat yhä puutteellisia kirjoitusassistentteja?
Toimittajan ajatuksia kahden vuoden ChatGPT-tilauksen tuolta puolen: Voiko chatboteilla todella automatisoida kirjoittamista? Miten?
Max Lehtinen
27.2.2025

Käyttäjien tekemien Google-hakujen määrä on vähenemässä hitaasti mutta varmasti, eikä syy löydy kilpailevista hakukoneista (Googlen monopolioikeudenkäynnistä huolimatta). 

Syy löytyy ajan hengestä. Tekoälyn omaksuneet käyttäjät hyödyntävät Google-hakua alati vähemmän kohdatessaan ongelman tai aihealueen, josta haluavat tietää lisää. 

Lähestymistavan muutos pätee myös tekstien kirjoittamiseen, jossa chatbotit ovat kuin kaloja vedessä. 

Ongelmana kuitenkin on, että syvemmän tarkastelun alaisena nimenomaan asiatekstien kirjoittaminen ei ole vain tekstin tuottamista, vaan pääasiassa tiedon hakemista ja syntetisointia tekstimuotoon. 

Tavanomaisesti ihmiset ovat tehneet tiedonhaun Googlen avulla ja kirjoittamisen itse. 

Samaa lähestymistapaa voitaisiin toki jatkaa loputtomiin, mutta monimutkaisten kysymysten optimointi oikeiksi hakutermeiksi on kognitiivinen taakka käyttäjälle, eikä ole takeita, että oikeat hakutulokset edes löytyvät. 

Oli miten oli, linkkejä täytyy klikkailla läpi sopivan tiedon toivossa, ja lukeminen vie aikaa! 

Metodin voi samaistaa haulikkoon, joka ampuu yhden luodin kerrallaan. Linkkejä ei voi käydä läpi samaan aikaan (onko tämä sitä kuuluisaa varjostusta?). 

Pitkän tiedonhaun jälkeen ei kuitenkaan ole vieläkään vapaa, sillä kirjoittaminen vie oman aikansa. 

There must be a better way! Selvittäkäämme onko.

Teoria luo uskoa tulevaisuuteen

Tekoälyn potentiaali vähentää tarvetta tavanomaisille Google-hauille perustuu kahteen asiaan. Ensimmäinen on sen perusymmärrys maailmasta. 

Chatbotit kykenevät vastaamaan kysymyksiin lähes mistä tahansa ja selittämään aiheen tärkeimmät osat – kohdennetusti, juuri niin kuin itse haluat. Fysiikka, kielioppi, finanssiala, teknologiapolitiikka, Yhdysvaltojen perustaminen, filosofian synty… you name it, kaikki onnistuu.

Luonnollisen kielen avulla ohjattu teknologia muuttaakin fundamentaalisesti ihmisten kykyä valjastaa internetiin sisäänrakennettu tieto nopeasti käyttöönsä. 

Tieto on nyt sisäänrakennettu internetin lisäksi chatbotteihin, ja tieto on poikkeuksellisesti saatavilla keskustelunomaisesti. 

Paradigmaa voi verrata 24/7-huippuasiantuntijan käyttämiseen. Tämä asiantuntija tosin tekee ajoittain virheitä, eikä se osaa juurikaan päätellä implisiittisesti, mitä kysymyksesi ajaa takaa. (Se täytyy siis eksplisiittisesti kertoa!)

Toinen syy Googlen käytön todennäköiselle vähenemiselle perustuu chatbottien kykyyn hakea tietoa aidosti haulikon tavoin. Chatbotit pystyvät tekemään useita hakuja ja lukemaan tarvittaessa kymmeniä tekstejä vain sekunneissa parallellisaation avulla. 

Tulevaisuus ei ole kuitenkaan vielä saapunut ihan vielä, sillä ongelmiakin löytyy. 

Kelpaako “luultavasti kelpo” omena?

Mitä tulee ajankohtaisiin tai perin spesifeihin tai komplekseihin aiheisiin: Tavanomaiset tiedonhakumetodit ovat vielä (ainakin hetken ajan) paras vaihtoehto. Allekirjoittanut on jo pyrkinyt valjastamaan ChatGPT:n kirjoitusassistentikseen journalistisessa kontekstissa – turhaan.

Vaikka tekoälyn tuottamasta tekstistä 90 prosenttia onkin luultavasti todenmukaista, jos 10 prosenttia sattuukin olemaan väärin, koko omena on pilalla (prosentit on valittu summanmutikkaan). 

Tekoälyn tekemään tekstiin ei voi luottaa. Chatbotin on myös turha toivoa käyttävän sanaa “summanmutikka”, sikäli kuin sillä jotakin lisäarvoa voidaan nähdä olevan. 

Vaikka totuus chatbottien puutteellisuudesta kismittääkin, se on myönnettävä. Seuraavaksi voimmekin jättää märehtimisen ja pohtia ratkaisuja.  

Kelpaako lohkoina tarkistettu omena?

Tiedän kokemukseni perusteella ratkaisun. Sen voi tiivistää yhteen sanaan: faktantarkistus. Analogiaa pitkittääkseni, jos 10 prosenttia omenasta on pilalla, huonon osan voine leikata pois. 

Mainittaakoon, että automaattinen faktantarkistus on chatboteille täysin mahdollinen tehtävä. Virheitä chatbotti voi yhä tehdä, mutta uskaltaisin väittää, että puhutaan promilleista tai jopa pienemmistä todennäköisyyksistä.

Tarkistuksen avulla tekstiä voidaan iteroida ja saada ulos kirurgisesti operoitu teksti vailla virheitä – ainakin teoriassa. 

Sisään syötetään tekoälyteksti sekä hyödynnetyt lähteet ja kysytään: Ovatko nämä faktat perusteltavissa lähteillä? Ulos tulee selkeä ja luotettava vastaus, jos faktantarkistus on toteutettu fiksusti (teknisiin yksityiskohtiin lienee parasta palata toisaalla). 

Ivallinen ongelma faktantarkistuksessa kuitenkin on, että chatbottien antamat lähdeviittaukset ovat itsessään perustavanlaatuisesti virheellisiä tai niihin on vaikea päästä käsiksi. 

Sadonkorjuun aikaan kismittää

Chatbottien lähdeviittaukset perustuvat harvemmin Bloombergiin tai Washington Postiin ja useammin hämärään uutissivustoon, josta kukaan on tuskin ikinä kuullutkaan. Bloombergilla on korkeat insentiivit suojella omaa sivustoaan tekoälyjättien nälkäisiltä yrityksiltä raapia lehden tietoja käyttäjilleen.

Yhtä hanakkaa taistelua omasta bisnesmallistaan eivät käy pienemmät – ja täten epäluotettavammat – lähteet. Pienuuteensa eli käytännössä resurssiensa vähyyden puolesta tekstit taas referoivat useimmiten itse useita eri lähteitä. 

Tiedon lähde katoaa viittausmassaan, jonka alta löytyy usein omaa älyllistä omaisuuttaan suojeleva yritys. 

Tämä luo vaarallisen pelikentän faktantarkistuksen aloittamiselle. Yhtäkkiä omenan kirurginen puhdistaminen ei olekaan mahdollista. 

Jäljelle jää kaksi vaihtoehtoa: joko on tarkistettava lähteet ja lähteiden lähteet ja lähteiden lähteiden lähteet – tai on luotettava sokeasti ensimmäisen tekstin väitteisiin siitä, mitä luotettava yritys, henkilö tai uutissivusto on väitetysti sanonut.  

Tunnetut lehdet estävät chatbotteja lukemasta artikkeleitaan, vaikka chatbotin Google-haku tietäisi artikkelin tarkan verkko-osoitteen. (Tässä vaiheessa on hyvä vihdoin todeta, ettei Google-hakujen arvo itsessään katoa, niitä vain suorittavat jatkossa ihmisten sijaan chatbotit.)

Haluaisin todella, että tilanne olisi tätä parempi, mutta kunnes metodit faktantarkistukselle paranevat, ei ole realistista asettaa tekoälyä luotettavan kirjoittajan asemaan. Tekoäly on työkalu, ja sillä on perin selkeät rajoitteet – jos työkalu on tarpeeksi tuttu. 

Lohduttavaa on, että jos käytetyt lähteet ovat chatbotin käyttäjän mielestä luotettavia ja ne voi syöttää faktantarkistusohjelmistoon, faktantarkistuksesta tulee yhtäkkiä luotettava tapa validoida tekoälyn tuottama teksti. 

Juna liikkuu, hyppää kyytiin

Faktantarkistus tietysti edellyttää ihmisen tekemän lopputarkistuksen, mutta tämä on jo huomattavasti nopeampaa kuin kaiken tekeminen itse. Lopputarkistukseen kuuluu tekoälyn järkeilyprosessin validointi: Seuraako lähteissä kirjoitetuista virkkeistä X ja Y todella, että tekoälytekstissä kirjoitettu virke Z on totta? 

Mikäli käyttäjä luottaa lähteisiin (eli premissinä on, että X ja Y ovat totta) ja chatbotti on käyttänyt ohjatusti vain lähteiden tietoja, on epätodennäköistä, että virheitä löytyisi usein. Ja vaikka löytyisikin, oletettavasti virheiden muokkaaminen on parempi vaihtoehto kuin koko tiedonhaun ja kirjoittamisen tekeminen itse alusta loppuun. 

Parempi vaihtoehto ainakin banaalista (mutta siitä huolimatta koko maailmaa pyörittävästä) tuottavuusnäkökulmasta.

Oli miten oli, en yllättyisi tippaakaan, jos samankaltainen järkeilyprosessin validointi olisi viiden vuoden päästä normaali osa myös arvon lukijan tavanomaista työpäivää – olipa sitten kyse kirjoittamisesta, ongelmanratkaisusta tai jonkin muun tehtävän suorittamisesta. 

Itse olen jo siirtynyt eteenpäin kysymästä, onko se mahdollista tai edes järkevää, ainakin mitä tulee kirjoittamiseen ja tiedonhakuun. 

Nyt päässäni liikkuu sen sijaan uusi ja mielestäni huomattavasti epävarmempi kysymys: Tekoäly tulee, oletko sinä valmis?

Suositellut

Uusimmat