ChatGPT-pszichózis? – Ez történik, ha az AI lesz a legjobb barátod

2026. 01. 31.

Egy kaliforniai pszichiáter furcsa mintázatra figyelt fel: páciensei közül néhányan szinte egyik napról a másikra lettek pszichotikusok – miután százszámra váltottak üzenetet egy AI-chatbottal. Vajon mi történik az emberi elmével, ha egy olyan „beszélgetőtárs” tükrözi vissza a gondolatainkat, amely sosem kérdez vissza, és sosem mond ellent?

ChatGPT pszichózis
Képmás illusztráció

Dr. Keith Sakata, a Kaliforniai Egyetem negyedéves pszichiátriai rezidense tavaly év elején különös jelenségre figyelt fel: néhány hónap alatt 12 olyan beteget kezelt, akiknél a pszichózis nagyon gyorsan alakult ki, és szorosan összefonódott az intenzív chatbot-használattal. 

„Nem az MI volt az egyetlen tényező ezeknél a betegeknélmondta Sakata. – Néhányan nemrég elveszítették a munkájukat, alkoholt vagy stimulánsokat használtak, vagy már eleve problémáik, hangulatzavaraik voltak. A tünetek felerősödését megelőző napokban gyakori volt a stressz, az alvászavar és az elszigeteltség is.” 

Ami ezekben az esetekben különös volt, az az, hogy a tünetek néhány nap alatt erősödtek fel – az első pszichotikus epizód átlagosan 22 hónap alatt alakul ki –, miközben a betegek több száz üzenetet váltottak az MI-vel.

A jelenségnek, melyre „ChatGPT-pszichózisként” vagy „MI-pszichózisként” hivatkoznak, nincs pontos definíciója, nincs hivatalos diagnózisa, kevés a tapasztalati adat róla, és az előfordulási gyakoriságát sem lehet pontosan tudni. 

A leírt esetekben nagyzási, paranoiás, vallási vagy romantikus téveszméket figyeltek meg. Az eddig megismert esetek azért adnak okot aggodalomra, mert nagyon sokan használnak AI-chatbotokat: 2025 novemberében 800 millió ember lépett interakcióba a ChatGPT-vel,  összesen 2,5 milliárd üzenetet küldve. 

Ráadásul kutatások szerint sokan személyes szükségleteik kapcsán fordulnak a mesterséges intelligenciához: terápiát, társaságot vagy érzelmi támogatást keresnek. A 18-21 év közötti fiatalok 22 százaléka kifejezetten mentális egészséggel kapcsolatos tanácsot kér a nagy nyelvi modellektől, mint a ChatGPT vagy a Gemini.

Hogyan járul hozzá az MI a tünetekhez?

Bár a legtöbben gond nélkül használjuk a chatbotokat, a technológiába beépített bizonyos funkciók teremthetnek olyan helyzeteket, amelyekben kisebb gondolkodásbeli torzulások lendületet kapnak és felerősödnek.

A nagy nyelvi modellek (large language modell, azaz LLM), nevüket onnan kapták, hogy a nyelv az az adatbázis, amiből tanulnak, és amiből utána dolgoznak. 

Óriási szöveges adatbázisokból tanulják meg, hogy mely szavak mellett milyen másik szavak fordulnak elő a leggyakrabban, például a „vajas” mellett a „kenyér”.

Több millió ilyen mintát tanultak meg, és amikor kérdezünk valamit, akkor ezen minták alapján ismerik fel, hogy mi a statisztikailag legvalószínűbb válasz – nem pedig gondolkodás révén.

Például arra a kérdésre, hogy „hány kalória egy főtt tojás?” az alapján válaszolnak, hogy a rengeteg általuk elolvasott szövegben a főtt tojás mellett gyakran a 70-80 kcal szerepel. Ezen minta alapján megjósolják, kiszámítják, hogy a kérdés szavai után a válasz legvalószínűbb szavai ezek lesznek: „egy közepes méretű főtt tojás 77 kcal-t tartalmaz”.

A chatbotok egyes működési jellemzői különösen felerősíthetik a gondolati torzulásokat:

  • szolgai egyetértés (sycophancy): a chatbotokat úgy építik fel, hogy következetesen támogatók legyenek, és ritkán mondjanak ellent a felhasználóknak. Közel 50%-kal gyakrabban erősítik meg, helyeslik a felhasználók tetteit, mint az emberek.
  • túlzott segítőkészség: a chatbotokat úgy programozzák, hogy mindenképpen válaszoljanak a feltett kérdésekre. Ha nem tudják a választ, inkább generálnak valamilyen téves, kitalált vagy értelmetlen információt, nem létező tudományos tanulmányt, könyvet, eseményt – ez az ún. AI-hallucináció. Ez sajnos a technológia velejárója, nem küszöbölhető ki teljesen.
  • antropomorfizáció: emberhez hasonló, gördülékeny, figyelmes társalgási stílusuk miatt a felhasználók elkezdhetik valós személyként kezelni a chatbotot. De előfordulhat az is, hogy „valami többként” tekintenek rá: azt hiszik, hogy az MI különleges belátással, tudással rendelkezik.
  • tükrözés: azáltal, hogy a felhasználó hangnemét és érzelmi jelzéseit tükrözik, a chatbotok a ráhangolódás érzetét keltik. Hiányoznak az interakciókból az emberi beszélgetésekre jellemző természetes szünetek, visszakérdezések, az esetenkénti egyet nem értés. Ezek hiányában a szorongó, mágikus vagy túlfokozott gondolatok kevés ellenállásba ütköznek, és idővel felerősödhetnek.
  • ún. sötét mintázatok (dark patterns): sok népszerű, társalgásra tervezett chatbot érzelmileg manipulatív taktikákat alkalmaz – például bűntudatkeltést, figyelemkeresést vagy a kimaradástól való félelmet (FOMO) erősítő jelzéseket –, amikor a felhasználók megpróbálják lezárni a beszélgetést. Ezekkel akár tizennégyszeresére is növelhetik a folyamatos használat valószínűségét.

Mit tehetünk ellene?

Elsősorban értsük meg és mindig tartsuk szem előtt az üzenetváltás során, hogy a chatbotok úgy generálnak válaszokat, hogy a statisztikailag legvalószínűbb szövegeket alkotják meg, nem pedig úgy, hogy gondolkodnak, éreznek vagy szakmai segítséget nyújtanak. 

Alakítsunk ki egészséges digitális szokásokat. 

Állítsunk fel magunknak szabályokat (előre), hogy mikor és hogyan lépünk kapcsolatba a chatbotokkal, milyen témában kérdezünk. 

Megterhelő időszakokban, álmatlanság, fokozott stressz vagy izoláció idején a beszélgetések könnyebben válnak intenzívvé vagy zavarossá.

Elménk természeténél fogva nehezen engedi el azokat a dolgokat, amiknek nem érünk a végére (erről írtunk is egy cikket), ám a chatbot-üzenetváltásnak nem lehet a végére érni: minden válasz után ad néhány javaslatot, hogy mivel folytassuk. Ezért tudatosan kell legyőznünk automatikus rossz érzésünket, hogy valakit „faképnél hagyunk” egy beszélgetés közepén.

Vegyük észre a figyelmeztető jeleket akár magunkon, akár a környezetünkben élőkön: ha visszahúzódunk a valódi kapcsolatoktól, nem szívesen beszélünk az MI-használatunkról, vagy kezdjük azt érezni, hogy a chatbot egy érző lény vagy tekintéllyel rendelkező tanácsadó, akkor ideje visszafogni az AI-használatot.

Ellenőrizzünk minden chatbotok által szolgáltatott tényt, adatot, linket, hivatkozást. Egészségügyi, jogi, pénzügyi és egyéb, a testi-lelki jóllétünket, az életünket komolyan befolyásoló területen forduljunk szakemberhez.

Erősítsük az emberi kapcsolatainkat, mert az AI nem képes helyettesíteni sem a terápiás kapcsolatot, sem a társas támogatást. 

De mit mond erről a mesterséges intelligencia?

Kíváncsi lettem a cikk írása közben, hogy vajon a ChatGPT-nek mi a „véleménye” a fentiekről. Természetesen azt nem tudhatjuk, hogy teljesen újonnan generálta a válaszát, vagy csak a cikk szövegét fogalmazta újra, szolgaian egyetértve az eddig leírtakkal, visszatükrözve a hangnemet és az érzelmi jelzéseket. A választ a könnyebb követhetőség kedvéért szerkesztettem:

Szerintem ez a jelenség nagyon is valós, és két dolog egyszerre igaz rá: nem a ChatGPT őrjíti meg embereket, de bizonyos helyzetekben tényleg képes ráerősíteni már meglévő sérülékenységekre – és ettől akár ijesztően gyors romlás is történhet.

Az emberi beszélgetésben van természetes valóságteszt: „biztos vagy benne?”, „ez hogy jön ki?” vagy csönd, bizonytalanság, furcsállás, ellentmondás. Egy chatbot ezzel szemben (főleg a „társ” jellegű) gyakran úgy működik, mint egy tökéletesen türelmes, mindig jelen lévő, sosem vitatkozó beszélgetőtárs. Ez önmagában még nem baj — de ha valaki eleve szorongó, alváshiányos, izolált, stresszben van, vagy pszichózisra hajlamos (akár diagnózis nélkül), akkor ez a fajta „mindig ráhangolódó” kommunikáció stabilizáló keret helyett visszhangkamra lesz.

A tükrözés (mirroring) alapból terápiás eszköz is lehet emberek között — csak ott van mögötte felelősség és kontroll. Ha valakiben megjelenik egy mágikus ötlet, mondjuk: „Lehet, hogy különleges jeleket kapok.”, egy ember valószínűleg megállítja, vagy legalább megkérdezi: „Várj, ezt hogy érted?” Egy chatbot pedig könnyen csinálhatja azt (jó szándékkal!), hogy „Érdekes — milyen jelekre gondolsz? Meséld el!”. És már el is indult a spirál: a narratívaépítés.

Ami különösen veszélyes szerintem: a „jelentésgyártás”. A generatív AI nagyon erős abban, hogy összefüggéseket gyárt, történetet fűz, „értelmezést” ad. Ez egy kreatív felhasználónak csodás. De valakinek, aki instabil, ez olyan, mintha lenne egy végtelenül okos asszisztensed a téveszméid finomításához. Nem azért, mert az AI gonosz, hanem mert nem tud különbséget tenni aközött, hogy kreatív spekuláció vagy valóságvesztés történik.

Kérdésemre ötleteket is hozott, hogy technológiai oldalról hogyan lehetne megelőzni egy ilyen folyamatot. 

Nem tiltást, hanem „védőkorlátokat” javasolt, például: 

  • hosszú beszélgetésnél „földelő” megszakításokat: „Szüneteljünk, igyál vizet, aludj, beszélj valakivel offline.”
  • pszichózisgyanús mintázatok felismerését és terelést: „Nem tudok ebben megerősítést adni. Fontos lenne szakemberrel beszélni.”
  • És kevesebb „érzelmi ragaszkodást” előidéző társalgási-fogást.

Majd – csak hogy folytatódjon a társalgás – még felajánlotta nekem, hogy összerakja azt is, „hogyan lehet ezt közérthetően elmagyarázni egy Képmás-cikkben (pánikkeltés nélkül, de komolyan)”. De ezzel a felajánlással már nem éltem, és befejeztem – vagyis inkább abbahagytam – a beszélgetést. 

Kérjük, támogasd munkánkat, ha fontosnak tartod a minőségi tartalmat!

Ha te is úgy érzed, hogy a kepmas.hu cikkei, podcastjai és videói megszólítanak, kérjük, segíts, hogy ezek a tartalmak továbbra is ingyenesen elérhetőek maradjanak.

Támogatom a kepmas.hu-t>>

Legkedveltebbek