Pieni joukko yhdysvaltalaisia koululaisia saa mielenterveystukea, jota on tehostettu tekoälyllä, selviää WSJ:n tuoreesta artikkelista.
Artikkelin mukaan tekoälybotteja käytetään vastausten generointiin chat-keskusteluissa nuorten kanssa. Sonar Mental Health -nimisen yrityksen Sonny-chatbotti auttaa työntekijöitä käymään samaan aikaan jopa 15–25 keskustelua eri ihmisten kanssa.
Chatbotit kirjoittavat muun muassa viestejä, joissa kysytään kuulumisia ja korostetaan armollisuutta itselle. Artikkeliin upotetun keskustelupätkän perusteella botit myös muistavat aiemmat keskustelut ja hyödyntävät niitä tehdäkseen keskustelusta henkilökohtaisemman.
Sonarin mukaan mielenterveyschat perustuu pohjimmiltaan yrityksen työntekijöiden arvioon siitä, mitkä viestit todella sopivat keskustelun kontekstiin.
Chatbotti tarjoaa arvoa generoimalla oikeansuuntaisia vastauksia nuorille nopeasti ja automaattisesti.
Palvelua hyödyntäneiden koulujen mukaan palvelun käyttöönotto on toistaiseksi tarjonnut lupaavia tuloksia.
Chatbottien hyödyntäminen päivittäisessä mielenterveystuessa (esim. Sonarin Sonny-chatbotti) mahdollistaa tuen myös silloin, kun resursseja ei riitä kasvokkaisiin tapaamisiin ammattilaisten kanssa.
Kritiikistä huolimatta monet uskovat teknologian parantavan mielenterveysalan tehokkuutta ja kohdennettavuutta.
Eräs lupaavimmista käyttökohteista löytyy ennakoivassa analytiikassa, jossa chatbotit (ja muut mallit) voivat ennaltaehkäistä mielenterveysongelmia varoittamalla esimerkiksi koulun henkilökuntaa tai huoltajia nuoren alenevasta mielialasta.
Kysymyksiä kuitenkin riittää yksityisyydensuojasta ja tekoälyn turvallisuudesta. Harva haluaa tekoälyn keräävän itsestä niin paljon dataa, että se osaisi kustomoida vastauksensa henkilön sairauden ja persoonan mukaan.
Onkin perin mielenkiintoista nähdä, onnistuvatko tekoälytuotteiden rakentajat hiljentämään kritiikin työkalujensa käyttöönotosta mielenterveystyössä. Riittääkö lupaus yksityisyydestä? Pystytäänkö tällainen lupaus edes antamaan?