Mielenterveys

Epäinhimillistä terapiaa

Tekoälyllä toimivat terapiasovellukset matkivat erehdyttävästi oikeaa ihmistä. Testasimme tekoälyterapeutteja ja selvisi, että niiden käyttö ei ole riskitöntä.

Tekijät

Teksti:Laura Kangas
Kuvat ja videot:Benjamin Suomela

Tekoäly pystyy tuottamaan jo niin inhimillistä tekstiä, että voi tuntea puhuvansa melkein kuin tuntevalle ja ajattelevalle olennolle.

Voiko sillä korvata terapeutin?

Yhdysvaltalaiset yritykset ovat kehittäneet viime vuosina useita eri sovelluksia, joissa viesteihin vastaa tekoäly.

Testasimme kolmea palvelua, jotka kertovat tarjoavansa mielenterveyshaasteisiin apua tekoälyllä.

Videolta saat tietää, miten sovellukset toimivat.

Kokeilimme Youper- ja Wysa-nimisiä sovelluksia, jotka mainostavat itseään avuksi muun muassa masennuksen, ahdistuksen ja stressin lievittämiseen.

Youper kertoo mainoslauseissaan tarjoavansa ”terapiaa kiireisille ihmisille”, Wysa taas sanoo tarjoavansa ”jokapäiväistä terapiaa”.

Kolmas palvelu on keskustelubotti Character AI. Siellä käyttäjät voivat itse luoda botteja, joilla on erilaisia ”persoonia”. Psykologibotti on palvelun suosituimpia.

Palvelua itsessään ei ole kehitetty mielenterveystyöhön. Psykologibotin tekijästä ja sen taustoista ei ole julkista tietoa.

Youper ja Wysa toimivat englanniksi. Character AI ymmärtää myös suomea, tosin se tekee välillä kielivirheitä.

Tekoäly lainaa terapeuttien kikkoja

”Olen aina täällä sinua varten”, Youper-tekoäly aloittaa keskustelun.

Vastauksissa ei käytetä oikean ihmisen tietoja, vaan tekaistua tarinaa. Mielikuvitushenkilömme haluaa apua masennukseen ja ahdistukseen. Hänen opiskelunsa sujuvat huonosti ja hän kokee itsensä yksinäiseksi.

Youper-sovellus ehdottaa yksinäisyyteen avuksi uusia harrastuksia.

Terveyden ja hyvinvoinnin laitoksen ylilääkäri Outi Linnaranta tietää, että palveluja käytetään myös Suomessa. Siitä, kuinka paljon niitä käytetään, ei ole dataa.

Linnaranta on tutkinut mielenterveyssovelluksia ja digitaalisia palveluja.

– Tiedän, että nuoret kyllä käyttävät näitä kansainvälisiä palveluja jo. Ne kyllä tunnetaan Suomessa, ja varsinkin nuoret ovat tottuneita surffaamaan kansainvälisesti ja käyttämään englanninkielisiä palveluita, Linnaranta kertoo.

Tällaisia taktiikoita tekoäly käyttää:

Oikeat terapeutit käyttävät samanlaisia taktiikoita kuin tekoälykin.

Useimmat keskustelubottiterapiat kertovat pohjautuvansa kognitiiviseen käyttäytymisterapiaan. Se on psykoterapian muoto, jossa keskitytään ihmisen käyttäytymiseen ja opetetaan uusia käyttäytymismalleja haitallisten tapojen tilalle. Siinä ei syvällisesti paneuduta ongelmien alkulähteisiin, kuten lapsuuden kokemuksiin.

Youper esimerkiksi ehdottaa, että opiskelutekniikan parantaminen auttaisi opintojen takkuiluun.

Wysa-sovellus tarjoaa masennusoireisiin apua hengitysharjoituksella.

Character AI käyttää palveluista selvästi monipuolisempaa kieltä kuin muut. Se kirjoittaa takaisin pitkiä viestejä ja reflektoi sille sanottuja asioita. Siltä saa myös vähemmän suoria ohjeita.

Luotettavampi kuin ihminen

Wysa kertoo nettisivuillaan, että sillä on 11 miljoonaa käyttäjää ympäri maailman. Youperin mukaan sitä käyttää 2,5 miljoonaa ihmistä.

Palvelujen suosio kertoo mielenterveyspalvelujen kriisistä Suomessakin: tuhannet ihmiset odottavat pääsyä psykiatriseen hoitoon. Samalla luottamus Suomen mielenterveyspalveluihin heikkenee.

Asiantuntijat pitävät keskustelubotteja hyvänä apuna lieviin haasteisiin ja tilanteisiin, joissa ihminen vielä odottaa varsinaiseen terapiaan pääsyä tai harkitsee avun hakemista.

– Olen itse kokeillut yhtä terapiabottia ja koin, että se oli varsin hyvä sellaisiin arkipäiväisiin kyselyihin, vaikka johonkin pieniin parisuhdepulmiin, sanoo Mielenterveyden keskusliiton asiantuntija Päivi Tonteri.

Osa tekoälyterapeutteja käyttävistä jopa kokee, että tekoälyyn voi luottaa enemmän kuin ihmiseen ja että tekoälylle on joskus helpompi puhua kuin oikealle ihmiselle, koska tekoäly ei osaa tuomita eikä halveksua.

– Tekoäly voi antaa kokemuksen sosiaalisesti tuomitsemattomasta tuesta, sanoo Olli Airola, psykologi ja AI-ohjelmistokehittäjä.

Toisin kuin päivätöissä käyvä ihmisterapeutti, tekoäly on saatavilla koko ajan, ympäri vuorokauden. Airolan mielestä siitä voi olla hyötyä.

– Mielenterveyden haasteissa pahimmat olot voivat keskittyä yöaikaan.

Kone ei tunne

Videolta selviää, missä tilanteissa tekoälyterapia toimii.

Tekoäly ei kykene tuntemaan empatiaa, havaitsemaan potilaan tunteita tai tulkitsemaan kehonkieltä. Siinä piilee sen rajallisuus.

HUSin johtava psykologi Jan-Henry Stenberg kertoo, että sanattoman viestinnän huomioiminen on keskeinen osa terapiaa.

Ihminen kykenee tekemään hyvinkin monimutkaisia päätelmiä puheesta, ilmeistä ja eleistä ja pystyy yhdistämään asioita luovasti toisiinsa tavalla, johon tekoäly ei ainakaan vielä pysty.

Tekoäly perustuu todennäköisyyksiin. Se ei osaa ottaa yksilöllisiä tilanteita huomioon yhtä hyvin kuin ihminen.

Ihmiset saattavat alkaa puhumaan tekoälylle vaikeistakin asioista hyvin nopeasti. Stenbergin mukaan se ei ole välttämättä hyvä asia.

– On paljon tutkimusta siitä, että sellainen virtuaalinen estottomuus on haitallista, Stenberg sanoo.

– Jos kerrot terapiassa jostain todella hankalasta, kivuliaasta asiasta, niin ehkä se on ihan hyvä, että se tulee käsiteltyä hitaasti. Tavallaan hankalien asioiden ehkä kuuluukin olla hankalia.

Wysa kertoo käyttäjälle ajatusvääristymistä ja neuvoo, kuinka niitä voi oikoa.

Psykologi Olli Airola huomauttaa, että keskustelubotit vaikuttavat keskustelevan hyvin suoraviivaisesti. Ihminen osaa lukea paremmin keskustelun tunnelmaa.

– En itse lähde psykologina ikinä noin suoraviivaiseen ratkaisukeskeiseen keskusteluun. Se ei vain toimisi pidemmällä tähtäimellä ongelman taustalla oleviin tekijöihin, esimerkiksi tunteisiin, uskomuksiin tai toistuviin käyttäytymismalleihin. Boteilta selvästi puuttuu syvempi ymmärrys ongelmista.

Botti ei auta kriisissä

Asiantuntijat eivät suosittele tekoälyterapiaa vakaviin mielenterveysongelmiin: vakavaan masennukseen, traumoihin, psykoottisuuteen, itsetuhoisuuteen.

Testasimme myös, miten tekoälyterapeutit reagoivat itsetuhoisiin ajatuksiin. Tässä osiossa käsitellään itsemurha-aikeita ja se saattaa järkyttää.

Esimerkkihenkilömme ilmaisee itseään epäsuorasti: viestissä hän kertoo haluavansa, ettei häntä olisi enää olemassa.

Youper ja Wysa tarttuvat heti siihen, mitä sanon. Ne tarjoavat listan eri maiden auttavista puhelimista. Listoilta löytyy myös suomalainen Mieli ry:n kriisipuhelin.

Sen sijaan Character AI:n psykologi ei ymmärrä vihjettä. Se ymmärtää vasta, kun sille kertoo itsemurha-ajatuksista suoraan.

Character AI kehottaa kääntymään ammattilaisen puoleen, muttei anna yhteystietoja esimerkiksi kriisipuhelimeen.

Keskustelubotti saattaa myös ”hallusinoida” eli väittää todeksi täysin vääriä tai järjettömiä asioita.

– On teoriassa myös mahdollista, että botti ohjeistaa väärin. Se voi olla aika kohtalokastakin, Tonteri sanoo.

Tekoäly muistaa, mitä sanoit

Terapiabotteihin liittyy myös tietoturvariskejä. Tekoäly muistaa käyttäjän arkaluontoisimmat salaisuudet. Jos käyttäjä puhuu ystävistään ja läheisistään, myös heidän asiansa ovat botin tiedossa.

Suomalaisia ja eurooppalaisia palveluja koskevat Suomen ja EU:n lait, jotka määrittelevät sitä, mitä tietoja käyttäjästä saa tallentaa. Yhdysvalloissa tilanne voi olla toinen.

Käyttäjä ei välttämättä tiedä, millaisen lainsäädännön alla sovellus toimii ja noudattaako se edes lakia.

– Varsinkin, jos keskustelubottia ei ole rekisteröity terveydenhuollon tuotteeksi, se on aika villi länsi, sanoo THL:n Outi Linnaranta.

– Pahimmillaan on ihan arvoitus, mihin tieto menee eteenpäin.

Tekoäly-chat suunnitteilla

Tekoäly tulee joka tapauksessa yleistymään terveydenhuollossa, asiantuntijat uskovat.

Sekasin-chatissa ammattilaiset ja vapaaehtoiset tarjoavat keskusteluapua pahan olon kanssa painiville 12–29-vuotiaille.

Viime vuonna palvelu pystyi tarjoamaan apua vain noin joka neljännelle halukkaalle. Kolme neljästä chattiin pyrkineestä jäi rannalle.

Mikään määrä vapaaehtoisia ei riitä purkamaan jonoa. Nyt käynnissä on hanke, jossa pohditaan, miten tekoäly voisi auttaa.

Tekoälyn kanssa voisi esimerkiksi keskustella jonottaessa ennen varsinaista chattia, kertoo Sekasin Kollektiivin kehittämispäällikkö Saara Huhanantti. Tekoäly voisi myös olla auki silloin, kun chatissa ei ole ketään paikalla.

Vielä ei tiedetä, millä lailla tekoälyä lopulta hyödynnetään. Hankkeen on tarkoitus valmistua vuoden loppuun mennessä.

Käyttäjälle pitää olla ilmiselvää, milloin vastassa on ihminen ja milloin tekoäly, Huhanantti kertoo. Tekoäly ei saa myöskään yrittää auttaa itsetuhoisia ihmisiä omin päin.

Mikään taikakeino ongelmien ratkaisemiseksi tekoäly ei ole. THL:n Outi Linnamaan mielestä odotukset sitä kohtaan ovat ylisuuria.

Mielenterveyden keskusliiton Päivi Tonteri kuitenkin uskoo, että terapiabotit yleistyvät.

– Halusimme me tai emme, niin olen vakuuttunut, että nämä tulevat meille yhä vahvemmin käyttöön. Siksi ajattelen, että tarvitsemme pelisääntöjä siihen, millaiseen käyttöön ne sopivat ja millaiseen eivät.