Mann i dress foran mørk, utskåret peisomramming i tre
TA KONTROLL: Kunstig intelligens kommer ikke til å erstatte terapi. Men den kan påvirke hvordan mennesker forstår seg selv. Derfor bør ikke utviklingen overlates til teknologimiljøer alene, skriver Sondre Liverød.

AI-terapi – Skal vi overlate det til Silicon Valley?

Vi står i et spenningsfelt. På den ene siden har vi en teknologi som allerede brukes i møte med menneskers indre liv. På den andre siden et fagfelt som i begrenset grad har vært med på å forme hvordan disse samtalene foregår.

Publisert

Som psykolog i spesialisthelsetjenesten registrerer jeg at mange av pasientene våre snakker med kunstig intelligens om livet sitt. De bruker språkmodeller til å formulere tanker, forstå følelser og sortere relasjonelle erfaringer. De sier det er tilgjengelig, umiddelbart og oppleves som trygt.

Spørsmålet er derfor ikke om kunstig intelligens vil få en rolle i psykisk helse. Spørsmålet er hva slags rolle den får.

I psykologisk arbeid handler utvikling sjelden om å få riktige svar. Snarere handler det om å utvikle en måte å forholde seg til egne tanker og følelser på. Mange mennesker lider ikke bare av det de kjenner på, men av hvordan de forstår det.

Antiterapeutisk

Forklaringer kan være beroligende. Når noe blir forklart, oppstår det en følelse av sammenheng, oversikt og forutsigbarhet. Det gir ro. Men denne roen har en bakside. Når vi setter to streker under en forklaring, stanser vi ofte den videre utforskningen. Erfaringen blir definert – og dermed også begrenset.

Når en samtalepartner alltid er tilgjengelig, aldri blir sliten og konsekvent fremstår forståelsesfull, kan den digitale relasjonen fremstå enklere enn den menneskelige.

I terapi betraktes dette ofte som delvis antiterapeutisk. Ikke fordi forklaringer er feil, men fordi de kan bli for definitive. Det kan bidra til at språket stivner til forklaringer som låser mennesket fast i snevre fortolkninger av seg selv og sitt indre liv. Selvutvikling handler derfor ikke bare om å gi det indre livet et språk, men om hva slags språk vi gir det. Et språk som lukker, reduserer kompleksitet. Et språk som åpner, gjør det mulig å undersøke videre. Det er sistnevnte bevegelse mye psykologisk arbeid kretser rundt: å gjøre det indre livet større, mer bevegelig og mindre rigid – ikke ved å fjerne det som er vanskelig, men ved å gi det en form som gjør det mulig å forholde seg til uten å bli fanget av det.

Det er her kunstig intelligens potensielt blir interessant – og problematisk.

En oppskrift på avhengighet

Vi har sett at generelle språkmodeller ofte gjør det som føles mest intuitivt riktig: De forklarer, beroliger og bekrefter. De gir sammenheng. De gir svar. Og nettopp derfor kan de være fristende å bruke – litt på samme måte som det er fristende å ta Sobril når uroen blir for sterk.

Det virker. Men det er ikke nødvendigvis utviklende.

Hvis slike systemer i hovedsak tilbyr forklaringer som skaper ro, risikerer vi at de samtidig bidrar til å lukke det indre rommet. De gir lindring, men ikke nødvendigvis bevegelse: En oppskrift på avhengighet.

Dette reiser et grunnleggende spørsmål: Kan vi utvikle kunstig intelligens som ikke først og fremst gir svar, men som bidrar til å åpne?

Et annet utgangspunkt

Gjennom det siste året har vi derfor vært en liten gruppe bestående av tre psykologer og én teknolog som har forsøkt å utforske nettopp dette. Ikke fordi vi tror teknologi kan erstatte terapi, men fordi vi ser at den allerede er i ferd med å bli en del av menneskers refleksjonsliv.

I stedet for å ta utgangspunkt i hva teknologien kan gjøre, har vi forsøkt å ta utgangspunkt i hva som faktisk fremmer psykologisk utvikling. En god balanse mellom validering og perspektivering – mellom støtte og innspill som gir mer friksjon. En samtalestil inspirert av Sokrates, hvor målet ikke er å konkludere, men å skape bevegelse i det som oppleves fastlåst. Psykologene har lagt premissene, og teknologen har oversatt dette til kode og digital arkitektur.

Vi har også koblet samtalen til andre former for psykologisk arbeid – som terapeutisk skriving, mentale øvelser og et omfattende psykoedukativt materiale. Etter hver samtale foreslås relevante podcastepisoder og øvelser laget av psykologene i prosjektet. Slik blir systemet en hybrid mellom menneskene og AI-veilederen.

Dette springer ut av en enkel observasjon: Vi bruker i dag mye av tiden foran skjerm til å distrahere oss bort fra oss selv. Spørsmålet vi stilte oss, var om skjermen også kan brukes motsatt vei – som et verktøy for å koble seg på eget indre liv og styrke relasjonen til seg selv.

Et spenningsfelt

Ambisjonen var å utvikle en AI-veileder som bidro med et språk for det som er vanskelig å forstå. Det som blir synlig gjennom beskrivelser, får en form, og det som får en form kan håndteres. I tillegg ville vi utvikle en veileder som ikke baserer seg på et ubegrenset internett, men som er forankret i et avgrenset og kuratert psykologfaglig materiale utviklet gjennom mange år.

Samtidig er risikoen åpenbar. Når en samtalepartner alltid er tilgjengelig, aldri blir sliten og konsekvent fremstår forståelsesfull, kan den digitale relasjonen fremstå enklere enn den menneskelige.

Vi står dermed i et spenningsfelt. På den ene siden har vi en teknologi som allerede brukes i møte med menneskers indre liv. På den andre siden et fagfelt som i begrenset grad har vært med på å forme hvordan disse samtalene foregår.

Kunstig intelligens kommer ikke til å erstatte terapi. Men den kan påvirke hvordan mennesker forstår seg selv. Derfor bør ikke utviklingen overlates til teknologimiljøer alene.

Interessekonflikter: Forfatteren er psykologspesialist og gründer av et selskap som utvikler en AI-basert refleksjonspartner for psykisk helse.

Powered by Labrador CMS