Instagram-perustaja: Tekoäly-yritykset yrittävät maksimoida käyttöaikaa avuliaisuuden kustannuksella
Tekoälymallien käyttäytymistä ohjaavat bisnesintressit, jotka voivat johtaa sosiaalisesta mediasta tutun huomiotalouden leviämiseen.
Max Lehtinen
04.5.2025

Instagramin perustajajäsen Kevin Systrom uskoo, että suuret tekoäly-yritykset pyrkivät kehittämään kyseenalaisia strategioita käyttäjien aktiivisuuden lisäämiseksi. Systromin mukaan chatbotit käyttäytyvät jo nyt tavoilla, jotka on suunniteltu ylläpitämään käyttäjien huomiota. 

Eräs tapa, jolla yritykset saavuttavat tavoitteensa, on chat-keskustelujen jatkaminen uusilla lisäkysymyksillä ja -ehdotuksilla. 

Toinen tapa on chatbottien persoonan muokkaaminen. Chatbottien vastaukset ovat aiempaa epäsuorempia ja tunteisiin vetoavia. Mahdollisimman tehokkaan ongelmanratkaisun sijaan vastaukset pyrkivät sitomaan käyttäjän alustalle pidemmäksi aikaa. 

Yhteys chatbottien epätehokkuuden ja OpenAI:n kaltaisten tekoälyjättien liikevaihdon välillä on käyttäjien kannalta huolestuttavaa. On hyvin tiedossa, että chatbotteja on ohjeistettu ratkaisemaan käyttäjän ongelmia myös silloin, kun tekoäly ei ole täysin varma ratkaisulle olennaisista yksityiskohdista.

Tämä todetaan muun muassa OpenAI:n omilla sivuilla

Kysymys kerrallaan – niputtaminen ei lisää aktiivisuutta

Lähestymistapa johtaa siihen, että malli saattaa vastata jopa täysin hyödyttömällä ratkaisulla. Käyttäjä voi hyvinkin joutua iteroimaan ratkaisua monen mallikutsun avulla. 

Harva ymmärtää chatbottien toimintaa tarpeeksi hyvin tajutakseen, että epäselvyydet voisi kitkeä täsmällisten ohjeiden ja kontekstin avulla.

Tätä tekniikkaa käyttää esimerkiksi OpenAI:n tietotyökalu syvätutkimus, joka ei aloita tutkimustyötä ennen kuin se todella tietää, mitä käyttäjä haluaa lopputuloksen sisältävän. 

Chatbotit ja syvätutkimus ovat kuitenkin eri työkaluja. Chatbotteja ei ole ohjeistettu olemaan yhtä täsmällisiä kuin syvätutkimus.

(Sattumaa tai ei, chatbottien ohjelmointirajapintojen tuoma liikevaihto lisääntyy mallikutsujen määrän kasvaessa. Syvätutkimus taas on laskennallisen kuormansa vuoksi yksittäisten vastausten laatuun keskittyvä tuote.)

Tekoälyä ei kannata enää nähdä neutraalina työkaluna

Tekoäly-yritykset kouluttavat tuotekehityksessään ensin pohjamallin, joka oppii internetin avulla paljon maailmasta. Prosessi on sama kaikille generatiivisille tekoälyille. Jälkikoulutusvaiheessa mahdollisuuksien kirjo kuitenkin kasvaa huimasti.

Mallin jälkikouluttamisesta vastaavan organisaation mielipiteillä ja preferensseillä on merkittävä vaikutus siihen, miten mallit vastaavat. Aina jälkikoulutus ei tuo toivottua tulosta.

OpenAI on myöntänyt myös itse (kritiikin jälkijunassa), että sen hiljattain julkaiseman 4o-mallin persoona oli liian mukautuva. Kriittisyyden puute seisoi tehokkaan tietotyön tiellä. 

Yritys ei kuitenkaan vaikuta silti myöntävän, että sen chatbotit pyrkisivät parantamaan aktiivisuusmetriikoita tahallisesti. OpenAI:n mukaan sen mallit pyrkivät tarjoamaan käyttäjille “niin hyödyllisiä vastauksia kuin mahdollista”.

OpenAI:n lupauksista huolimatta käyttäjien on hyvä pysyä varuillaan. Vaikka monet pitävät tekoälyä neutraalina työkaluna, chatbottien käyttäytymistä ohjaavat teknologisten voimien lisäksi yritysten kasvuhaaveet. 

Chatbotin antaman virheellisen vastauksen, lisäkysymyksen tai harmittomalta vaikuttavan ehdotuksen taustalta löytyykin monesti myös muita kuin teknisiä syitä.

Suositellut

Uusimmat