Søk

PsykNytt – siste nytt for psykisk helse-feltet

Kategori

IKT

Debatt: KI endrer klinisk praksis – ikke ansvaret (Dagens Medisin)

kvinne som arbeider med KI
Medisinsk kunstig intelligens har blitt svært god på oppgaver som forberedelse, analyse og dialog. Ill. foto: Mostphotos.

Utviklingen i medisinsk KI skjer nå fra kvartal til kvartal – og påvirker klinisk arbeid før den påvirker behandling.

Silvija Seres, Teknologi- og strategisk rådgiver

Klinisk arbeid spenner fra forberedelse og analyse til pasientdialog, før det munner ut i den faglige beslutningen og behandlingen. Mye av arbeidet skjer før selve beslutningen tas: journalsøk, gjennomgang av prøvesvar, analyse av tidligere vurderinger og forberedelse til samtalen med pasienten.

Det er nettopp disse leddene – forberedelse, analyse og dialog – flere nye KI-studier omtaler. De viser at medisinsk kunstig intelligens har blitt svært god på oppgaver som tidligere var tidkrevende og ujevnt utført i en presset klinisk hverdag. Tempoet og konsistensen i disse systemene endrer forutsetningene for klinisk arbeid, uten å flytte ansvaret for beslutning og behandling.

Legens ansvar endres ikke. Det er forankret i de samme profesjonelle idealene som har fulgt legeyrket siden Hippokrates

Et godt dokumentert eksempel er MedGemma, utviklet av Google. Det er en medisinsk KI-grunnmodell, trent på store mengder medisinsk tekst og bilder og deretter tilpasset kliniske oppgaver. I tester reduserer modellen feil i strukturert journalsøk med rundt 50 prosent, sammenlignet med generelle KI-grunnmodeller, som ChatGPT eller Copilot. I bildeklassifisering, blant annet røntgen, presterer modellen 15–18 prosent bedre enn generelle multimodale KI-modeller. Også medisinsk resonnering, der flere kliniske funn vurderes i sammenheng, er betydelig forbedret.

Kilde: KI endrer klinisk praksis – ikke ansvaret (Dagens Medisin)

Selvskading: «Frida» skal gjøre det lettere å snakke med unge (Suicidologi)

Avataren Frida
Spillets viktigste oppgave er å gi øvelse i både å spørre, snakke og ikke minst høre om selvskading. Ill. foto: Colourbox.

Målet med samtalesimulatoren «Frida» er at flere skal ønske – og klare – å gå inn i samtaler om selvskading, ifølge psykologspesialist Hannah Lydvo.

Spesialrådgiver og psykologspesialist Synøve Magnussen Wiig intervjuer Hannah Lydvo, spesialrådgiver og psykologspesialist i RVTS Øst.

I april 2023 ble samtalesimulatoren «Frida» lansert. Spilleren møter der avataren Frida, ei 16 år gammel jente som strever med selvskading. Spilleren går inn i rollen som klassekontakten hennes og får slik trening i å snakke med Frida på en måte som gjør det mulig for henne å bli trygg nok til å fortelle om hvordan hun har det. Gjennom samtalen kommer det frem at van-skene utspiller seg og forsterkes på sosiale medier. Hannah Lydvo, psykologspesialist ved RVTS Øst, har vært med å utvikle spillet. Hun er til daglig tilknyttet selvmordsforebyggende team og har også klinisk erfaring.

Hvem er simuleringsspillet «Frida» ment for?

Vi har valgt å gå bredt ut: «Frida» kan være til nytte både for lærere og andre i skoleverket, helsesykepleiere og ansatte i spesialisttjenesten. Generelt kan både de som jobber med barn og unge, og de som arbeider med voksne, ha nytte av det.

Hva er motivasjonen for å lage spillet?

Vi vet at stadig flere barn og ungdommer får erfaring med selvskading. For noen er det en erfaring de får gjennom å faktisk skade seg selv, men mange opplever også å se selvskading tematisert på sosiale medier, og være vitne til andres selvskading. Vi snakker generelt for lite med barn og unge om hva de opplever på sosiale medier. Også de som mottar behandling, opp-lever at de i liten grad blir spurt og snakket med om det virtuelle livet sitt. Slik kan vi ikke ha det. Rundt 16 prosent av norske barn og unge skader seg selv en eller flere ganger (Tørmoen et al., 2020). Dette er veldig høye tall. Det er opplagt at ikke alle disse unge menneskene skal eller kan få behandling i helsevesenet. Flere av oss må klare å ta samtaler om selvskading. Siden fenomenet er så utbredt, er det viktig at vi alle kan mer om det, og ikke minst at vi vet noe om hvordan selvskadingstemaet gjør seg gjeldende på sosiale medier.

Videre vet vi at en del kan vegre seg for å gå inn i samtaler om selvskading. De kan være redde for å si noe som gjør situasjonen verre, eller de kan tenke at de ikke er i stand til å sitte med ansvaret for hva de eventuelt får høre. Samtidig kan det ikke være et alternativ å la være å forholde seg til dette hvis man er bekymret for noen. Derfor må vi øve. Mange kan vegre seg for å øve gjennom rollespill, men med et spill som «Frida» kan treningen kjennes ufarlig, men likevel relevant og lærerik.

Hvordan fungerer det?

Spillets viktigste oppgave er å gi øvelse i både å spørre, snakke og ikke minst høre om selvskading. Vi ønsker at spillet skal danne et utgangspunkt for å reflektere over egne holdninger og reaksjoner, og kanskje også fordommer mot selvskading, på en trygg måte. Dette kan spillerne gjerne reflektere over sammen med kollegaer. Ved å snakke sammen, tenke oss om og øve blir vi bedre rustet til å ta den praten som kanskje kjennes krevende.

Det er også et viktig poeng at spillerne skal trene på å lytte og utforske uten å komme med korreksjoner og løsninger. Gjennom spillet får man dessuten kunnskap om selvskading som kan være nyttig å ha med seg i slike samtaler.

Les hele artikkelen: Visning av «Frida» skal gjøre det lettere å snakke med unge

SMS og Snapchat som virkemiddel i psykisk helsearbeid (Erfaringskompetanse.no)

ung kvinne med mobiltelefon
Ungdom og helsesykepleierne var i et prosjekt enige om at SMS og Snapchat ikke kan erstatte fysiske samtaler.  Ill. foto: Colourbox.

– SMS og Snapchat kan være en styrke i arbeidet med ungdom i psykisk helsehjelp, sier Ann Katrin Trustrup og Line Jenhaug.

Eskil Skjeldal

– Hva er prosjektets innhold?

– Prosjektet handler om hvordan bruk av SMS og Snapchat kan påvirke lavterskel psykisk helsearbeid for ungdommer. I dette prosjektet er det i hovedsak tatt utgangspunkt i ungdommenes egne opplevelser for å fremme deres stemme. Fem ungdommer og to helsesykepleiere er intervjuet.

– Hvilke spørsmål stilte dere for å finne ut av dette?

– Til ungdommene ble det stilt spørsmål om erfaringene med digital og fysisk kontakt med helsesykepleierne. Det ble videre spurt om hvilken kontakt de foretrakk og elementer som var viktig for følelsen av trygghet i relasjonen, positive og negative erfaringer, og hvordan ungdommene tenker at den digitale kontakten har påvirket relasjonen til helsepsykepleier. Til helsepsykepleierne ble det stilt spørsmål om bruken av digitale plattformer, deres tilgjengelighet der og hvordan det kunne påvirke relasjonen. Om de opplevde kjønnsforskjeller, og positive og negative sider.

– Hva fant dere?

– Vi fant at SMS og Snapchat kan være en styrke i arbeidet med ungdom i psykisk helsehjelp. Man når ut til flere ungdommer, særlig gutter. Digital kontakt var et godt hjelpemiddel i å ordne det praktiske rundt oppfølgingen og hjelperne var mer tilgjengelige. Det var også et godt hjelpemiddel når det gjelder å planlegge samtalene med tanke på tema, slik var både ungdom og hjelpere forberedt til den fysiske samtalen. For spørsmål som kunne være vanskelige å stille ansikt til ansikt var også digital kontakt positivt.

– Dype samtaler om alvorlige tema ble foretrukket at foregikk ansikt-til-ansikt for å unngå misforståelse samt muligheten til å lese hverandres kroppsspråk. Ungdommene ønsket ikke at helsesykepleier skulle bruke ungdommens eget slang-språk digitalt, da det ville oppleves uprofesjonelt og useriøst. Helsesykepleierne så på digital kontakt som et nødvendig supplement i arbeidet med ungdom, men både ungdom og helsesykepleierne var enige om at det ikke kan erstatte fysiske samtaler.

– Hvorfor er dette viktige funn?

– Funnene er viktige fordi de viser hvordan hjelpere i dagens samfunn kan benytte digitale samtaler til å komme i kontakt med ungdommer og også utvide relasjoner med ungdommer. At fysiske møter imidlertid ikke kan erstattes av digital kontakt er viktig i dagens samfunn, blant annet fordi mindre fysiske møter kan ses som ressursbesparende.

Artikkelen stod i Tidsskrift for psykisk helsearbeid (fra juni 2025) og kan leses  her.

Vil du vite mer om prosjektet? Du kan ta kontakt med Ann Katrin Trustrup her: anntrustrup@gmail.com

Les hele saken: SMS og Snapchat som virkemiddel i psykisk helsearbeid – Erfaringskompetanse.no

Fremtidens psykoterapi: Hvilken rolle bør kunstig intelligens spille? (Tidsskrift for Norsk psykologforening)

kvinne som stirrer på pc
Ki-baserte chatboter er noe annet enn psykoterapi, skriver artikkelforfatterne. Ill. foto: Colourbox.

Bruk av KI i psykoterapi er først og fremst et prinsipielt og etisk spørsmål. I terapeutisk sammenheng må KI anvendes med kritisk refleksjon og etisk ansvar.

Helene Amundsen Nissen-Lie og Erik Stänicke

I programmet «The Tonight Show» med Jimmy Fallon (Mesella & Diomeda, 2024) gir Jerry Seinfeld følgende beskrivelse av AI (eller kunstig intelligens, KI) høsten 2024:

Alt vi hadde, var ekte intelligens, ikke sant? Fra vår begynnelse som mennesker. Det funket ikke. Vi var dumme, og vi er fremdeles dumme. Men vi fortsatte å tenke, til vi klarte å lage en fake variant av intelligens: kunstig intelligens. Slik at dumme folk ville virke smarte. Men så begynte vi å tenke, kanskje var ikke det det smarteste vi hadde gjort? For hva om den kunstige hjernen ble smartere enn den ekte hjernen? Da ville vi jo virke enda dummere? Så hvis jeg har forstått dette riktig: Vi er smarte nok til å lage KI, dumme nok til å trenge det, og så stupide at vi ikke aner om vi gjorde det rette. (vår oversettelse)

Bruk av kunstig intelligens i psykoterapi

Årets Psykoterapibiennale på Litteraturhuset i Oslo hadde tittelen «Psykoterapi – et knapphetsgode?» (10. mars, 2025), og førsteforfatter hadde i oppgave å avslutte dagen med et foredrag med tittelen «Fremtidens psykoterapi». Hva var vel mer naturlig enn å se på bruken av kunstig intelligens (KI) i psykoterapi? Kan vi hjelpe flere om vi tar i bruk det teknologiske fremskrittet som KI representerer? Kan vi supplere eller i noen tilfeller erstatte psykoterapi mellom en terapeut og en pasient ved hjelp av KI? Er dette først og fremst et ‘empirisk spørsmål’, om hvor effektiv KI-basert terapi er sammenliknet med vanlig psykoterapi? Altså virker en slik behandling tilfredsstillende eller like godt som tradisjonell psykoterapi? Er det noen som ikke vil profittere på KI-basert terapi? Er dette et empirisk, etisk eller politisk spørsmål? Kan terapi gitt ved hjelp av KI, uten menneskelig kontakt, i det hele tatt kalles psykoterapi?

Ved bruk av tenkning fra filosofi og psykoanalytisk teori vil vi argumentere for at mangelen på intensjonalt gjensvar, emosjonell opplevelse eller menneskelig kontakt gjør KI-baserte chatboter til noe annet enn psykoterapi. Vi håper at teksten kan stimulere til faglig refleksjon og diskusjon i feltet.

Mange peker på potensialet KI har i behandling av psykiske helseplager, ikke minst med tanke på at psykoterapi nettopp er et knapphetsgode. KI kan brukes på flere måter i behandlingskjeden (Hatch et al., 2025). Vi kan bruke KI i diagnostisering, KI kan analysere data fra spørreskjemaer og journaler, og det kan brukes i kliniske vurderinger for å bidra til mer presis diagnostikk. KI, eller maskinlæring, kan hjelpe oss å finne riktig behandling eller tilpasse behandlingen vi allerede gir (se Delgadillo & Atzil-Slonim, 2023). Kombinert med KI kan virtuell virkelighet (VR) brukes til eksponeringsterapi for angst (se blant andre Imel et al., 2017).

Man kan bruke apper til å overvåke symptomer, humør og til og med selvmordsfare. I en fersk norsk studie undersøker en gruppe forskere hvordan ungdom mellom 16 og 20 år opplever svarene om psykisk helse fra store språkmodeller (ChatGPT) sammenliknet med svarene fra fagpersoner hos en nettbasert informasjonstjeneste (ung.no). Deltakerne var positive til svarene fra både fagpersoner og ChatGPT, men anbefalte oftere svarene fra ChatGPT til andre. Som begrunnelse for det oppgav en undergruppe av deltakerne som ble undersøkt kvalitativt at svarene fra ChatGPT blant annet hadde høyere informasjonskvalitet og var mer velstrukturte (Skjuve et al., 2025).

Ved hjelp av avanserte språkmodeller kan vi også i helsetjenestene bruke KI-baserte chatboter eller terapiboter til noe som likner mer direkte på psykoterapi. KI-baserte chatboter blir programmert til å gi ulike intervensjoner, fra validering, strukturering av tanker, utforsking av følelser til ulike hjemmeoppgaver, eller å engasjere pasienter i terapeutisk interaksjon over tid. Det er spesielt bruken av KI i terapeutisk interaksjon over tid vi vil drøfte i artikkelen.

Det er ennå få gode studier på denne bruken av KI, men flere er på trappene. De studiene som sammenlikner en terapibot med tradisjonell psykoterapi, finner at tradisjonell terapi gir bedre effekt, men at chatboten kan være nyttig i akutte kriser for pasienten der tilgang til terapeuten er begrenset (Spytska, 2025). En systematisk oversikt med 20 studier fant at selv om KI-terapi er tilgjengelig og kan redusere symptomer, øke livskvalitet og brukertilfredshet på tvers av pasientgrupper, finnes det betydelige etiske problemer, og mangel på ekte menneskelig empati og innlevelse blir sett på som et hinder for reell endring (Li et al., 2023).

Les hele artikkelen: Tidsskrift for Norsk psykologforening

Debatt: Slik lykkes vi med digitalisering i mental helse (Dagens Medisin)

samarbeid rundt pc
Samarbeid mellom helsepersonell og pasienter, samt testing av tjenester er viktig for å lykkes. Ill. foto: Colourbox.

Å dele gode resultater på tvers av helseforetakene og ha tydelige gevinstrealiseringsmål vil være avgjørende for å drive digitaliseringen fremover. 

Linn Nathalie Støme, Sofie Ragnhild Aminoff, Henrik Myhre Ihler, Kristin Lie, Mari Skoge, Kari J Kværner

Når nye tilnærminger til behandling av mentale lidelser virkelig trengs, og et mangfold av digitale tilbud er tilgjengelige, hvordan finner vi ut hvilke løsninger som faktisk fungerer, og for hvem? Skal vi tro innspill fra forskere, næringsliv og helsetjenesten selv, er svaret et forpliktende samarbeid – i dobbel forstand. Først, at pasienter, pårørende, klinikere og lederne selv involveres og enes om behovene. Videre må vi sikre forutsigbarhet og forpliktelse i samarbeidene mellom næringsliv og det offentlige for å sikre at løsninger tilpasses behov og skalering blir en etterlengtet realitet.

Digitalisering i helsevesenet er et felt preget av både store forventninger og betydelige utfordringer. Dette ble tydelig under Forhelses fellessamling i Oslo i juni 2025, der forskere, næringsliv og representanter fra helsetjenesten diskuterte status og fremtid for digitalisering av mental helse i Norge. Forhelse, et Senter for Forskningsdrevet Innovasjon (SFI), har som mål å øke bruken og effekten av digitale helsetjenester for psykisk helse gjennom et trepartssamarbeid mellom forskere, næringsliv og det offentlige. For å lykkes med digitalisering i mental helse må løsningene som utvikles, ikke bare fylle tekniske krav. Ved å involvere nøkkelaktører fra starten, kan vi bygge digitale verktøy som møter reelle behov og styrker helsetilbudet. For å få til dette må vi først prioritere testing av tilgjengelige digitale tjenester. Dette krever funksjonelle tilbakemeldingssløyfer fra de som skal bruke løsningene – klinikere, pasienter og pårørende.

Les hele innlegget: Slik lykkes vi med digitalisering i mental helse (Dagens Medisin)

KI-apper til oversettelse – er de gode nok til arbeid med pasienter?

Smilende oversetter
Oversettelsesapper dekker mange språk og har blitt mer presise de siste årene. Ill. foto: Colourbox.

KI-tjenester for oversettelse – både muntlig og skriftlig – har blitt stadig mer kraftfulle verktøy som kan hjelpe helsepersonell med å formidle informasjon til pasienter med begrensede norskkunnskaper. Men hvor gode er disse tjenestene i praksis, og hvor trygge er de?

Kunstig intelligens (KI) har de siste fem årene revolusjonert feltet maskinoversettelse. Tidligere var digitale oversettere ofte upresise og lite nyanserte, men med framveksten av maskinlæring og store, flerspråklige språkmodeller, har både kvalitet og brukervennlighet gjort store framskritt. Moderne KI-oversettere kan både gjengi tekstlig informasjon til et stort antall språk, og oversette muntlig dialog i sanntid.

Personvern

Det er én veldig viktig innvending mot bruk av maskinoversettelse i helsevesenet: Personvern. Google Translate som, teknisk sett, er en av de bedre appene, lagrer dataene som brukerne laster inn, og de forbeholder seg også retten til å publisere dem. Om andre oversettelsesverktøy tar mer hensyn til personvernet bør en undersøke grundig før en tar de i bruk. Personopplysninger og sensitive data bør man altså holde langt unna maskinoversettelse. Dette kan gjøre det vanskelig å bruke maskinoversettelse til dialog med pasienter, men er ikke i veien for å oversette pasientbrosjyrer og generell informasjon. Til dialog med pasienter kan ofte den norske appen Care To Translate benyttes. Den har ferdiginnspilte setninger og dekker 47 språk.

Stort behov for informasjon på pasientens språk

Norskspråklige pasienter har tilgang til et bredt tilbud av kvalitetssikret informasjon om sykdom og behandling i norsk helsevesen. Engelskspråklig informasjon av høy kvalitet er også lett tilgjengelig på nettsider som BMJ Best Practice, Medline Plus og Mayo Clinic. Men for pasienter med utenlandsk bakgrunn der verken norsk eller engelsk er morsmål, kan tilgangen på relevant informasjon være mer begrenset.

Stadig bedre maskinoversettelser åpner nå større muligheter for at norskspråklig innhold i større grad kan oversettes til brukernes morsmål, selv om innholdet som tidligere bør kvalitetssikres av et menneske. Det gjelder både offentlige og kommersielle aktører.

Hva kjennetegner i dag noen av de beste eller mest brukte oversettelsesappene?

Google Translate

  • Nøyaktighet: Google Translate har blitt bedre over tid, men nøyaktigheten varierer mye alt etter språk og type tekst. For medisinske utskrivnings-instruksjoner er det vist over 80 prosent nøyaktighet, men for enkelte språk som armensk og farsi falt den til henholdsvis 55 og 67 prosent. For spansk og kinesisk var den over 90 prosent, men selv små feil kan ha store kliniske konsekvenser.

  • Begrensninger: Tjenesten vurderes som utilstrekkelig for kritiske medisinske oversettelser. Den fanger ofte ikke opp konteksten og kan feiltolke spesifikke medisinske termer, noe som kan resultere i alvorlige misforståelser.

  • Bruksområde: Anbefales kun som et verktøy for generell informasjon, når profesjonell oversettelse ikke er tilgjengelig, og aldri for livsviktige meldinger.

DeepL

  • Nøyaktighet: DeepL regnes for å ha høyere kvalitet enn Google Translate, spesielt innen teknisk og medisinsk terminologi. Studier viser at DeepL ofte scorer høyest for tekniske oversettelser, og den har også vist best resultater i sammenlikningstester mellom eksempelvis engelsk-japansk og japansk-engelsk for medisinske dokumenter.

  • Begrensninger: Selv om DeepL gir gode resultater, kreves det fortsatt menneskelig etterkontroll da feil og utelatelser kan forekomme, også i medisinske tekster. I gratisversjonen lagres oversettelser midlertidig, mens dette ikke er tilfelle for DeepL Pro.

ChatGPT

  • Nøyaktighet: Studier fra 2024-2025 viser at ChatGPT har lik eller bedre treffsikkerhet sammenlignet med Google Translate, spesielt for språk som spansk og kinesisk, hvor begge verktøy presterte ≥90 prosent nøyaktighet på setningsnivå. Også for russisk er GPT vist å være mer nøyaktig enn Google Translate.

  • Klinisk risiko: For begge verktøy var det lav risiko (≤1prosent) for feil med potensielt alvorlig klinisk konsekvens dersom man vurderte én setning isolert. Risikoen økte derimot når hele instruksjonssett vurderes.

  • Styrker: Tjenesten er god på større sammenhenger, og kan tilpasses med instruksjoner «prompt engineering» for å styre stil og presisjon. Den gir ofte bedre flyt og mening enn tradisjonelle maskinoversettere for komplekse tekster.

Perplexity.ai

  • Nøyaktighet og bruksområde: Perplexity gir tilgang til oppdatert medisinsk forskning og har sin styrke i å gjøre presise oppsummeringer med kildehenvisninger. Den hjelper ikke bare med direkte oversettelse, men også med å finne og tolke de nyeste retningslinjene og dokumentene innen medisin. Den er samtidig mer rettet mot informasjonsinnhenting og RAG «retrieval-augmented generation»  enn ren språkoversettelse, men har bredt dekning av språk og kan sammenlignes med ChatGPT i fleksibilitet.

  • Begrensninger: Tjenesten er avhengig av nettforbindelse for å få tilgang til kildematerialet og den er ikke alltid like sterk på kontekstsensitiv og spesialisert terminologi-oversettelse som DeepL eller ChatGPT når disse får gode instruksjoner.

Skriftlig oversettelse – en enkel test av Perplexity

Helsebiblioteket gjorde en enkel test av Perplexity på oversettelse av denne pasientbrosjyren til tysk: Diabetes type 2 – behandling, og ba deretter Perplexity om å tilbakeoversette den til norsk. Den tyske teksten manglet oversettelse av to ord, der det norske ordet ble oppgitt. Ellers virket oversettelsen feilfri. Tilbakeoversettelsen var svært lik den norske originalen, men ikke identisk lik. Den var også uten feil. Syntaks og ordstilling var korrekt i begge tilfellene.

Ved oversettelse av medisinske tekster imidlertid resultatet alltid kontrolleres av fagfolk.

Muntlig oversettelse – enkle tester av Google Translate og DeepL

Helsebiblioteket har gjort en enkel test av Google Translate og DeepL.

Google Translate

Google Translate er den mest brukte gratisløsningen og støtter nå over 100 språk. Den har et samtalemodus der to personer med forskjellige språk kan snakke med hverandre via appen, og få sanntidsoversettelser lest opp. I USA har rundt en tredjedel av alt helsepersonell brukt tjenesten ved innkomstsamtaler, der rask overføring av grunnleggende informasjon om smerter, symptomer og behov er essensielt. Oversettelse av medisinske termer i samtalemodus er imidlertid belemret med feil.

I norsk-tysk samtalemodus spurte vi for eksempel: «Har du hørt om basalcellekarsinom?» uten at appen klarte å oppfatte spørsmålet riktig. Men ved annen gangs forsøk ble oversettelsen riktig. Det er viktig å snakke langsomt og tydelig for at appen skal forstå hva som sies.

Ved inntasting av tekst klarte appen seg bedre. Oversettelsen av inntastet tekst var feilfri.

Appen kan ta bilde av tekst og utføre oversettelse av den ved hjelp av OCR-teknologi. På trykt tekst kan dette fungere godt.

DeepL

DeepL har også samtalemodus, og der gjelder det samme som for Google Translate: man må snakke langsomt og tydelig for å bli forstått. Vi prøvde å lese høyt en tekst fra Tidsskrift for Den norske legeforening og for å få den oversatt til tysk. Det fungerte delvis bra. Når DeepL fikk med seg den norske teksten, ble den oversatt til forståelig, men ikke god tysk. Som hjelpemiddel ved oversettelse vil dette verktøyet kunne spare mye tid, men etterkontroll er viktig.

Samtalemodus er ikke tilgjengelig for alle språk, og DeepL dekker heller ikke like mange språk som Google Translate.

DeepL har utmerket seg som den KI-baserte oversettelsestjenesten med best presisjon og mest naturlig språk, spesielt mellom europeiske språk. Tjenesten brukes mye blant profesjonelle oversettere og akademikere. DeepL støtter nå også opplasting av dokumenter, slik at brosjyrer, samtykkeskjema og pasientbrev på norsk kan oversettes hele veien til pasientens morsmål. DeepL kan ta bilde av tekst og oversette den til ønsket språk, men tyding av fotografert norsk tekst er per august ikke implementert. Også for DeepL gjelder: Ikke legg personopplysninger og konfidensiell informasjon inn i appen!

Andre KI-baserte oversettelsestjenester

I tillegg til verktøyene beskrevet over, er videre Microsoft Bing Translator, ChatGPT og Localise.AI blant de høyest vurderte oversettelsestjenestene.

Validering av oversettelser

Tre nyttige tips for validering av oversettelser er:

  1. Tilbakeoversettelse: Oversett teksten tilbake til originalspråket for å identifisere feil
  2. Faglig gjennomgang: La medisinske eksperter med språkkompetanse kontrollere oversettelser
  3. Pilot-testing: Test oversatt materiale på målgruppen før full implementering

Implementering i helsetjenester

Før man implementerer KI-tjenester i helsetjenesten, bør man:

  • Utvikle klare retningslinjer for når og hvordan AI-oversettelse kan brukes
  • Etabler kvalitetskontrollprosedyrer for oversatt materiale
  • Sørg for opplæring av helsepersonell i riktig bruk av oversettelsesverktøy
  • Opprettholde backup-løsninger som profesjonelle tolk- og oversettelsestjenester

Bruk av kunstig intelligens til oversettelse er et ganske nytt felt, men det begynner å komme noe forskning om det, også innenfor medisin.

Forslag til videre lesning:

  1. Older Migrant Patients and Health Care Professionals’ Experiences With Digital Translation Tools in Care Interactions: A Qualitative Literature Review
  2. Performance of machine translators in translating French medical research abstracts to English: A comparative study of DeepL, Google Translate, and CUBBITT
  3. Assessing GPT and DeepL for terminology translation in the medical domain: A comparative study on the human phenotype ontology
  4. Transforming machine translation: a deep learning system reaches news translation quality comparable to human professionals

Deler av denne artikkelen ble utarbeidet som utkast av KI-tjenesten Perplexity og deretter kvalitetssikret av redaksjonen.

Relevante søkeord: oversettelse, KI, AI, kunstig intelligens, pasientinformasjon, medisin

Norsk studie: Unge foretrekker ChatGPT fremfor fagpersoner i spørsmål om psykisk helse

Konkret informasjon og råd, samt lettfattelig fremstilling var viktig for ungdommene som deltok i undersøkelsen. Ill. foto: Colourbox.

En ny norsk studie viser at unge i større grad foretrekker svar fra ChatGPT fremfor svar fra fagpersoner når de søker informasjon om psykisk helse.

Studien, som omfatter 123 ungdommer i alderen 16–20 år, sammenlignet svar på spørsmål hentet fra informasjonstjenesten ung.no med svar generert av ChatGPT. Deltakerne vurderte svarene ut fra faktorer som anerkjennelse, relevans, forståelighet og nytte.

Resultatene viser at både ChatGPT og fagpersonene fikk gjennomgående positive vurderinger, 52 prosent av deltakerne ville anbefale svar fra ChatGPT, mens kun 19 prosent foretrakk svar fra fagpersonene. Begrunnelsene pekte særlig på tre faktorer: ChatGPTs evne til å gi konkret informasjon og råd, en følelse av å bli sett og anerkjent, og en strukturert og lettfattelig fremstilling.

Funnene har viktige implikasjoner for utvikling av digitale informasjonstjenester for unge. Studien peker på at kunstig intelligens kan spille en nyttig rolle i helseinformasjon, men understreker også behovet for kritisk bruk, kvalitetssikring og samarbeid mellom teknologi og fagpersoner. Forskerne anbefaler å utforske hybride modeller der språkmodeller som ChatGPT brukes som støtteverktøy i offentlige tjenester som ung.no.

Les hele studien:  Unge og helseinformasjon – ChatGPT vs. fagpersoner (Tidsskrift for velferdsforskning)

Saken er skrevet av ChatGPT-4o og kvalitetssikret av redaksjonen.

Kutter vape med Slutta-appen (Helsedirektoratet)

ung mann som vaper
Antall unge som sier at de vaper har økt betraktelig. Ill.foto: Colourbox.

Fra 1. januar kan du bruke Slutta-appen til å slutte med e-sigaretter (vape). Så langt i år har appen blitt lastet ned 2000 ganger for å brukes til vape-slutt.

Slutta-appen har hjulpet mange med å slutte med røyk og snus. Fra appen ble lansert i 2012 er den lastet ned over 1,5 millioner ganger.

– At såpass mange ønsker å slutte med vape henger sammen med den økende bruken. Økningen av vaping og spesielt blant unge, er stor, alvorlig og bekymringsfull, sier divisjonsdirektør i Helsedirektoratet, Linda Granlund.

De siste årene har antall unge som sier at de vaper daglig eller av og til økt betraktelig. Fra 2022 til 2024 økte antall unge mellom 16 og 24 år som vaper fra 5 % til 13 %, ifølge SSB.

– Det at man trenger hjelp til å slutte, viser hvor avhengighetsskapende vape kan være, sier Granlund.

Les hele saken: Kutter vape med Slutta-appen (Helsedirektoratet)

Drevet av WordPress.com. av Anders Noren.

opp ↑