Osa ChatGPT-käyttäjistä hyödyntää tekoälymallin äänitilaa yksinäisyyden ja muiden negatiivisten tunteiden vähentämiseen, selviää OpenAI:n teettämästä tutkimuksesta.
Tutkijoiden mukaan tämä ei kuitenkaan ole aina huono asia. Ongelmia koituu tutkimuksen mukaan vain käyttäjien tietylle osajoukolle, jotka ovat liian riippuvaisia tekoälystä.
Tutkimuksen mukaan tekoälymallien kanssa keskustelu vähensi käyttäjien yksinäisyyttä ja lisäsi tyytyväisyyttä silloin, kun käyttö oli kohtuullista.
Joidenkin käyttäjien kohdalla oli kuitenkin itse raportoituja huolia mahdollisesta riippuvuudesta, johon liittyi myös tekoälyn vahvaa inhimillistämistä.
Osa esimerkiksi käytti tekoälymallista lellittelynimiä keskusteluissaan tekoälyn kanssa. Jotkin käyttäjistä myös viittasivat tekoälykeskusteluissaan jonkinlaiseen “ihmissuhteeseen” mallin kanssa.
Inhimillistäminen perustuu ääneen
Tekoälyn inhimillistäminen helpottuu äänitilassa, vaikka taustalla oleva tekoäly on sama kuin tekstissä. ChatGPT osaa jopa muuttaa äänenpainoaan ihmisten kaltaisesti.
Seuraukset ovat intuitiiviset: Tutkijat havaitsivat äänitilakeskusteluissa moninkertaisen määrän emotionaalisesti latautunutta kielenkäyttöä tekstiin verrattuna.
Jotkut äänitilan käyttäjät nimenomaan haluavat tuntea emotionaalista yhteyttä tekoälyyn äänitilan avulla.
Tämä tarkoittaa, että aktiivisimmat äänitilan käyttäjät käyttävät tekoälyä neutraalien tehtävien suorittamisen sijaan laajempaan vuorovaikuttamiseen.
Merkittäviä eroja käyttäjien välillä
Tekoälyn ja ihmisten välille muodostuvissa suhteissa on siis merkittäviä eroja. Jotkut pitävät tekoälyä työkaluna, toiset ystävänä.
Monet pystyvät hyötymään tekoälyn antropomorfisuudesta eli ihmismäisyydestä saamalla siltä emotionaalista tukea ja psykologisesti valveutuneita neuvoja.
Kaikkein haavoittuvimmassa asemassa oleville tekoäly kuitenkin luo mahdollisen riippuvuuden ja korostaa sosiaalista eriytymistä. Nämä käyttäjät eivät välttämättä osaa säädellä omaa tekoälyn käyttöä.
Tutkijoiden mukaan tekoälyn ja ihmisten välisen emotionaalisen kanssakäymisen määrää olisi siis järkevää säädellä esimerkiksi varoituksien ja käyttörajojen avulla.
Tekoälyn ihmismäisyyden tasoa saattaa myös olla järkevää alentaa, jos käyttäjä on selkeästi altis jäämään tekoälykoukkuun. OpenAI:n tutkimuksen mukaan paras indikaattori tämän tutkimiseen on emotionaalisesti latautuneen käytön määrä.
Tutkimuksen mukaan kaikkein aktiivisimpien käyttäjien keskuudessa äänikeskustelut sisälsivät emotionaalista kielenkäyttöä yli 50 % kerroista, kun keskimääräisellä käyttäjällä sama kynnys ylittyi alle 1 % kerroista.
Vastaavia lukuja voidaan käyttää indikaattorina interventioille.
OpenAI toivoo, että jatkotutkimuksia kohdistettaisiin nimenomaan riskiryhmän ja tekoälyn väliseen vuorovaikutukseen ja säätelyyn. Yritys painottaa, että käyttäjäarviot tekoälyn antamasta tuesta olivat keskimäärin positiivisia.