SAMFUND

Nu bliver chatbots brugt som terapeuter, men tendensen vækker bekymring

Illustration: Ann Sofie Bay Bertmann

Internationale medier skriver om stigende brug af chatbots til terapi, og på TikTok lovpriser unge mennesker ChatGPT’s terapeutiske evner. Men chatbots er ikke gearet til at agere terapeuter, og i sidste ende kan de fastholde sårbare mennesker i uhensigtsmæssige tilstande, vurderer ekspert. 

Siden kunstig intelligens og chatbots som ChatGPT har gjort deres indtog i erhvervslivet, er de blevet arbejdspladsernes svar på kamæleoner. De kan indtage rollen som kundeservicemedarbejder, rekrutteringsassistent, journalist, oversætter, regnskabsassistent og dataanalytiker – for bare at nævne nogle stykker. 

Og nu indtager de også rollen som terapeut. Det skriver flere internationale medier. 

CNN skriver, at “Chatbots til mental sundhed boomer, men der er ikke meget bevis for, at de virker,” mens The Economic Times skriver:

»Fra USA til Sydafrika stiger brugen af AI chatbots til mental sundhed i popularitet, da sundhedsressourcerne er overbelastede. Det på trods af bekymringer fra tech-eksperter om datasikkerhed og etiske aspekter ved rådgivning.«

Der bliver både henvist til chatbot-apps, der er direkte målrettede mod mentalt helbred og terapi, som Woebot, Wysa, Replika og Youper, og til sprogmodeller som ChatGPT, som bliver promptet til at agere terapeut. 

Også på det sociale medie TikTok har flere brugere fået øjnene op for ChatGPT’s terapi-potentiale. Der florerer videoer, hvor unge TikTok-brugere tilmed udtrykker begejstring over chatbottens terapeutiske evner. 

»Fortæller ChatGPT alle mine problemer, fordi den giver mig bedre rådgivning end min terapeut«, lyder det fra en.

»Sig farvel til lange ventetider og sig hej til øjeblikkelig terapi med AI, lyder det fra en anden.« 

På videoerne demonstrerer TikTok-brugerne også, hvordan de benytter chatbotten til terapi. Nogle beder om råd til konkrete situationer, de står i, mens andre fortæller, at de er stressede eller deprimerede, og på få sekunder får de tilsendt både svar og anerkendende ord fra ChatGPT. 

Kæmpe datagrundlag

Selvom det kan lyde besynderligt at bruge en robot som psykolog eller terapeut, kommer fænomenet ikke bag på Anders Søgaard, som er professor og forsker i maskinlæring og sprogmodeller. Det skriver sig ind i en tendens, som handler om at afsøge mulighederne for, hvad chatbots kan bruges til. 

»Der er mange firmaer, der er i gang med at lave sprogmodeller, som skal være vores venner, vores kærester eller terapeuter,« siger han og henviser til, at det åbner op for nye forretningsmodeller for virksomhederne.

Anders Søgaard forklarer, at ChatGPT umiddelbart kan synes at have ret gode forudsætninger for at agere psykolog eller terapeut. ChatGPT er en sprogmodel, som grundlæggende er trænet i at se mønstre i en tekst og fortsætte den pågældende tekst. Sprogmodellerne er trænet i tre omgange: I første omgang i en masse tekst, dernæst i samtaledata, som skal gøre dem gode til samtaler. Til sidst bliver de testet af mennesker, der får betaling for at bruge dem, og så korrigerer man ud fra brugernes feedback. 

Særligt det tredje trin er vigtigt, da det er der, man kan korrigere sprogmodellen, hvis den siger noget kontroversielt eller farligt. 

»Det lyder jo umiddelbart ikke som noget, man får en særligt god psykolog ud af, men man skal tænke på, at det er enorme mængder af data, som er repræsenteret i sprogmodellerne. De har med stor sandsynlighed set flere eksempler på samtaler, end psykologer og terapeuter har haft gennem deres faglige virke,« forklarer Anders Søgaard.  

Alligevel vurderer han ikke, at man bør spare på psykologregningen og ty til chatbots i stedet. 

Han understreger, at chatbots har store mangler i forbindelse med terapeutisk vejledning. De svar, de giver, vil i et vist omfang være en afspejling af, hvad der har været af svar på tilsvarende forespørgsler i den træningsdata, modellerne har set. Men de er ikke gearet til at tage individuelle hensyn, som psykologer er. 

»Der er en grund til, at det er dyrt at gå til psykolog. Psykologer har taget en lang uddannelse og opbygget erfaring over mange år,« konstaterer han og fortsætter: 

»De ved hvornår man skal sende nogen videre i psykiatrien, hvornår man skal underrette politiet, og hvornår man skal tage kontakt til forældre, hvis det drejer sig om børn. Og de er i øvrigt bundet af lovgivning og tavshedspligt i modsætning til ChatGPT.« 

Desuden peger han på, at behandlingsforløb med en psykolog eller terapeut ofte er tilrettelagt over længere tid, i modsætning til chatbots, som ikke har evnerne til at følge op på en samtale.

»Hvis det overhovedet kan siges at være en løsning, så er det en ret dårlig løsning for dem, der har brug for at gå til psykolog,« konstaterer Anders Søgaard. 

Kan i sidste ende have konsekvenser

Maja Vain Gilbert er autoriseret psykolog og stifter og leder af klinikken UngTerapi, og hun advarer mod at bruge ChatGPT som terapeut eller psykolog. 

Hun peger på en række af årsager til, at chatbots ikke bare er uegnede til at yde terapeutisk rådgivning, men også kan bidrage til at fastholde sårbare unge i en uhensigtsmæssig tilstand. 

Hun forklarer, at psykologbehandling er en bred vifte af intuitivt arbejde, hvor psykologen gennem sin erfaring lærer, hvordan vedkommende skal agere i forskellige situationer. Nogle gange kan der være behov for, at man støtter klienten, andre gange skal man være mere konfrontatorisk, og nogle gange er det en vekselvirkning mellem begge dele. 

»Der kan eksempelvis være mennesker, der har oplevet traumer tidligere i livet og har svære tilknytningsforhold til deres forældre. De kan have udviklet uhensigtsmæssige relationsmønstre til andre mennesker, hvor de er dybt afhængige af andres omsorg og anerkendelse og kan have uhensigtsmæssige mønstre til, hvordan de opnår det. Det er noget af det, vi udfordrer i terapien. Det er en snæver dans mellem at anerkende individet, men samtidig også at lære dem at være i relationerne på en anden måde ved at konfrontere dem,« forklarer Maja Vain Gilbert. 

Samtidig bruger terapeuten sit kendskab til klienten, vedkommendes unikke omstændigheder, personlighedstype og baggrund. 

Maja Vain Gilbert pointerer, at selvom ChatGPT kan komme med et automatisk svar, som umiddelbart anerkender klienten og deres situation, så kan den ikke lave den individuelle vurdering, som er så vigtig. 

Derved kan klienten faktisk blive afhængig af den anerkendelse, de oplever at få fra ChatGPT, uden at de udvikler sig eller overvinder deres udfordringer. 

Og hvis man i forvejen er sårbar og kaster sig ud i en behandling, der ikke fungerer, så kan tilliden til, at man kan få det bedre lide et knæk. Det kan resultere i, at man ender med at få det værre, end man havde før, forklarer hun.

ChatGPT-terapi kan blive en farlig Tiktok-trend

Ifølge Maja Vain Gilbert er unge letpåvirkelige overfor de ting, de ser på TikTok. Derfor håber hun heller ikke, at de videoer, der lovpriser ChatGPT’s potentiale – eller mangel på samme – som terapeut, begynder at trende. 

I forvejen ser hun såkaldte selvdiagnosticeringsfællesskaber og tendenser til pseudospykologi på TikTok, hvor folk uden den faglige ekspertise udtaler sig om diagnoser. 

Det ser hun som en skræmmende bevægelse, fordi det kan medvirke til, at folk undlader at søge den rigtige hjælp og i stedet udvikler hjemmelavede teorier om, hvorfor de har det, som de har.

»Så går de måske i noget helt tilfældig behandling, som eksempelvis på ChatGPT,« forklarer hun. 

Og det kan rent faktisk gøre, at de får det værre, end de havde i forvejen. 

»Så det ser jeg som en enormt farlig tendens, hvis det virkelig er noget, der begynder at trende,« konstaterer hun.