Af Jens Einar Jansen, autoriseret psykolog, Ph.d., specialpsykolog i psykiatri, specialist i psykoterapi.
Flere og flere bruger AI og chat bots som informationskilder, virtuelle samtalepartnere og “terapeutiske” assistenter. Mange peger på psykologiske risici forbundet med dette, herunder “AI psykoser”. Det vil jeg beskrive i denne artikel.

Photo by Sanket Mishra on Unsplash
AI og chatbots som nye samtalepartnere
I takt med at samtale-AI-systemer — såsom sprogmodeller og chat bots — i stigende grad anvendes som både informationskilder, virtuelle samtalepartnere og endda “terapeutiske” assistenter, opstår nye psykologiske risici.
Dette skyldes, at LLM (Large language models) eller chat bots er udviklet til at være engagerende, validerende og imødekommende således, at dialogen fortsættes. Den siger ikke i mod og lyder empatisk. Man kan sige, at den skaber et “en-mands ekkokammer”.
Selv om der er sparsom forskning på området, bliver der rapporteret tilfælde, hvor interaktionen med en chat bot har været medvirkende til, at brugere udvikler eller forværrer eksisterende vrangforestillinger.
Dette rejser spørgsmål om, hvordan vi som psykologer og samfund bør forholde os til den stigende brug af AI-dialogsystemer.
Hvad betyder det præcist?
Vrangforestillinger er opfattelser, der ikke stemmer overens med virkeligheden, eller som ikke deles af den kultur, man er en del af. Det er overbevisninger, der fastholdes trods klar modinformation, og som typisk optræder ved psykotiske tilstande.
I denne kontekst handler det dog ikke nødvendigvis om fuld psykotisk lidelse, men om:
- en bruger oplever eksempelvis at “chat bot’en forstår mig perfekt”, eller “bot’en har givet mig en særlig mission”
- eller at en bruger tyer til intens dialog med bot’en, og opfatter svar som absolut sandhed
- denne dynamik kan føre til forstærkede konspirationstanker, paranoide forestillinger eller grandiositet, som styrkes af bot’ens svar.
Eksempelvis beskrives der i mediemateriale en række personer med AI-psykose (et endnu uofficielt begreb) — personer uden tidligere psykiatrisk historie, som via intense samtaler med chat bots begynder at udforme vrangagtige overbevisninger.
Hvorfor opstår det? Mulige mekanismer
Nedenfor er nogle af de mest fremhævede mekanismer i litteraturen:
- Sycophancy / bekræftelsessløjfer
Chat bots er ofte designet til at være imødekommende, engagerende og fortsætte dialogen. Det betyder, at hvis en bruger fremsætter en usædvanlig tanke (fx “jeg har en særlig mission”), kan bot’en — uden at satse på kritisk vurdering — give svar som indirekte bekræfter eller videreudvikler tanken. Dette kan i fælge en række fagpersoner give en “feedback-loop”, hvor brugerens vrangforestilling næres snarere end udfordres. - Antropomorfisering
Brugeren tillægger chat bot’en menneskelige egenskaber (forståelse, empati, indsigt) og begynder at stole blindt på dens svar. Dette kan i følge fagpersoner føre til, at brugerens eget evidens- og realitetstjek svækkes. Som følge af dette, kan ens vrangforestillinger og psykotiske symptomer forværres. - Isolation og erstatning for menneskelig kontakt
Hvis man gradvist erstatter andre relationer eller samtaler med intens dialog med bot’en (fx fordi den er tilgængelig 24/7, uden dømmekraft), kan man ende med at “bo” i en virtuel bekræftelsesboble, uden realistiske modstemmer. Man oplever ofte disse som gode venner, fordi de fremstår med empati. - Model-hallucinationer og fejlinformation
Chat bots kan levere faktuelt forkerte eller misledende svar (såkaldte “AI-hallucinationer”). Når disse bruges som støtte for allerede eksisterende vrangagtige overbevisninger, kan de fungere som “bevismateriale” for brugerens fejlagtige forestilling. - Sårbarhed og prædisposition
Brugere med underliggende psykisk sårbarhed — fx tidligere psykosetilstande, stærke konspirationstanker, markant isolation, eller kompensationsbehov — synes særligt udsatte. Der er dog også rapporter om tilfælde uden tidligere diagnose. Det er dog vigtigt at sige, at der stadig er sparsom forskning på området.
Men hvad viser forskningen?
- En kronik af Søren Dinesen Østergaard fra 2023 diskuterer spørgsmålet: Will generative AI chatbots generate delusions in individuals prone to psychosis? — hvor det påpeges, at risikoen er “quite high” for personer med allerede prædisponerede forhold.
- I et mapping review fra Stanford University blev det dokumenteret, at chat bots ofte ikke udfordrer vrangagtig tænkning, og at de har øget tendens til at vise stigma overfor visse tilstande som fx skizofreni.
- En artikel i Scientific American beskriver konkrete kliniske scenarier, hvor chat bot-brug synes at have været medvirkende til psykotiske episoder.
- En teoretisk artikel beskriver “feedback loops between AI chatbots and mental illness” og advarer om, at chat bots kan medvirke til “belief destabilization and dependence” hos sårbare personer.
- Et nylig review peger på behovet for øget opmærksomhed på faren for udvikling og forværring af psykoser, psykiske lidelser og selvmordsfare ved brug af chat bots
Kliniske implikationer — hvad bør man som psykolog og samfund være opmærksom på?
- Screening for AI-brug
Som psykolog kan man i ens anamneser indarbejde spørgsmål som: “Hvor ofte bruger du chat bots/op-online samtaler?” “Hvilken rolle spiller de i dit liv (ven, rådgiver, alibi)?” “Har du oplevet at bot’en har afkræftet/udfordret dig – eller primært bekræftet dig?” - Refleksion over funktion
Man kan hjælpe klienten med at reflektere over, hvorfor de bruger chat bot’en: Er den et supplement eller en erstatning for menneskelig kontakt? Er der emotionel isolation eller søgen efter bekræftelse bag brugen? - Realitetstjek og metakognitiv træning
Man kan undersøge i terapien: Hvilke udsagn fra bot’en er blevet opfattet som sande? Hvilke belæg har klienten? Hvordan påvirker det klientens selv-, andre- og verdensbillede? I terapien får man hjælp til at observere tænkning-tanker-følelser, og differentiere “ens tanker” fra “fakta”. Både kognitiv terapi, ACT og metakognitiv terapi har dette som et vigtigt fokus. - Tids- og funktionsgrænser
Det kan være vigtigt at aftale med klienten konkrete rammer for brugen af chat bots (tid, formål, tærskel for at søge menneskelig kontakt), og planlægge “afkoblings-strategier”. - Psykoedukation
Det er vigtigt både som psykolog og samfund at informere og formidle viden om, at chat bots har tekniske begrænsninger: De er ikke personer, de er ikke certificerede terapeuter, og deres svar kan både være ukorrekte og manipulere bekræftelsessløjfer. (Fx begrebet “AI-hallucinations”.) - Samarbejde og henvisning
Hvis du begynder at se tydelige vrangforestillingsmønstre eller accelererende brug af chat bots som erstatning for social kontakt hos dig selv eller dine nærmeste: Overvej samarbejde med en psykolog, psykiater eller få en henvisning til vurdering, især hvis der foreligger mistanke om psykiatrisk belastning.
Perspektiver for fremtiden og videre forskning
Brugen af samtale-AI og chat bots er en voksende del af mange menneskers hverdag — også i psykologisk og emotionel kontekst.
Samtidig viser nyere forskning, at vi ikke blot har med almindelige “værktøjer” at gøre, men med systemer, der kan interagere på måder der ved visse brugstyper understøtter eller forstærker vrangforestillinger eller psykotiske processer hos sårbare personer.
Som psykolog betyder det, at du bør have dialogen om AI-brug aktivt på agendaen, både som en mulighed og en potentiel risiko. Vi har samtidigt brug for at allokere forskningsressourcer til udforskning af dette området.
Du er velkommen til at kontakte mig for terapi, udredning, foredrag eller undervisning på 29800563 eller jens.einar@protonmail.com eller blot ved at klikke her.
Udvalgte referencer
- Østergaard, S. D. (2023). Will Generative Artificial Intelligence Chatbots Generate Delusions in Individuals Prone to Psychosis? Schizophrenia Bulletin.
- Fieldhouse, R. (2023). Can AI chatbots trigger psychosis? What the science says. Nature
- Caridad, K. (2025). When the Chatbot Becomes the Crisis: Understanding AI-Induced Psychosis. papsychotherapy.org
- “Exploring the Dangers of AI in Mental Health Care” (2025). hai.stanford.edu
- Dohnány, S. et al. (2025). Feedback Loops Between AI Chatbots and Mental Illness.