„Én is szeretlek” – A gyerekem egy játékhoz beszél helyettem, és az válaszol is neki

2025. 10. 07.

Miközben a gyártók képernyőmentes játszótársként, fejlesztőeszközként reklámozzák a legújabb fejlesztésű, mesterséges intelligencia vezérelte plüssfiguráikat – a robbanásszerű növekedést mutató piacból kiindulva egyre nagyobb sikerrel –, szakemberek sora ad hangot növekvő aggodalmainak a jelenség kapcsán. Egyesek már azt latolgatják, hogy az MI-játékok új generációja milyen szinten szorítja majd háttérbe a szülők és a kortársak szerepét a gyermekek érzelmi fejlődésében, az általunk megkérdezett szakértő ennél derűlátóbb állásponton van. 

mesterséges intelligencia által vezérelt plüss
Kép: Képmás Illusztráció

Deliága Éva gyermekpszichológus szerint az egyik legnagyobb veszély jelenleg az, hogy az egészen kicsik – akik általában a valóság, a mese és a fantázia között sem tudnak még különbséget tenni –, hajlamosak lehetnek érzelmileg is kötődni ezekhez a lényekhez. Holott valójában gépek, amik csupán adathalmazokat „mondanak” vissza algoritmusok alapján. Erről viszont egy páréves gyereket nem lehet meggyőzni.

„Én is szeretlek.” Mit szólnál, ha egy ölelnivaló, nagy szemű plüss szőrmók mondaná ezt a gyerekszoba kellős közepén, történetesen a kislányodnak? 

Ne a Toy Story című animációs film egyik jelenetére gondolj (amelynek főhősei és szereplői egy kisfiú kedvenc játékai, amik megelevenednek, és különféle kalandokba keverednek), ez már a valóság. Az elvi lehetősége legalábbis fennáll mindennek azóta, hogy néhány éve tengerentúli játékgyártók mesterséges intelligencia vezérelte plüssfigurákat „eresztettek rá” a játékpiacra. Beszélő játékok már évtizedek óta velünk vannak, a legújabb fejlesztésű modellek azonban már nem előre programozott panelmondatokat ismételgetnek. Nyílt végű társalgásra képesek bárkivel, akár egészen kicsi gyerekekkel is.

„Nyugtalanító, hátborzongató élmény” – foglalja össze e szavakkal a tapasztalatait egy brit újságíró, aki tesztelés céljából vitt haza egy ilyen „lényt” a négyéves kislányának. Az egy héten át tartó kalandot részletesen dokumentálva többek közt azt is leírja, szülőként növekvő aggodalommal figyelték, hogy a gyerek mennyire mélyen kezdett kötődni a bájos plüssfigurához. Ám onnantól kezdve, hogy a szerkezeten bizonyos tervezésbeli hibák kezdtek kiütközni – például kiderült, hogy nem tud énekelni, illetve egy ponton elnézést kért, amiért sikerült kapcsolódnia a wifihez –, ráadásul az újdonság ereje is megkopott, a kislány érdeklődése látványosan alábbhagyott.

A szülőket addigra már kellőképp aggasztotta a plüssbe ágyazott szerkezet folytonos jelenléte – ami szavaikkal élve a „frászt hozta” rájuk –, így közölték vele, hogy egy szekrény mélyére fogják elzárni. 

Miután a mesterséges intelligencia kifejezte abbéli aggályait, hogy ez valamiféle sötét és magányos dolognak tűnik számára, biztosította őket, készen áll arra, hogy bármikor újra elővegyék, ölelgessék és játsszanak vele. 

Vedd meg, vidd be az otthonodba és add a gyereked kezébe 

„Jól tudok magyarázni, élénk a fantáziám, ráadásul nagyon szórakoztató vagyok” – így jellemzi és egyben ajánlja több prototípus mellett a Grem nevű, mesterséges intelligencia vezérelte plüssjátékát honlapján a Curio játékgyártó. Leginkább a szülők figyelmébe, akiket azzal a fő marketingüzenettel győzköd, hogy termékeit a képernyőidő egy sokkal egészségesebb alternatívájaként reklámozza. A hároméves és idősebb gyerekek számára tervezett, az OpenAI technológiájával készült játékok dedikált feladata, hogy a gyermek személyiségét, érdeklődési körét megismerve „szórakoztató és hasznos” beszélgetéseket folytassanak vele. 

Olyanokat, amik fejlesztő, oktató funkcióiknak köszönhetően értelmes és hasznos dolgokat is taníthatnak csemetéiknek – mondják a tervezők. A történet egy szintén figyelemre méltó mellékszála, hogy a Curio startup-fejlesztő csapatnak Claire Elise Boucher, ismertebb nevén Grimes is tagja. A kanadai zenész, énekesnő még szélesebb körben arról ismert, hogy három közös gyermeke van a milliárdos tech-guru Elon Muskkal. 

A homályos adatvédelem és a virtuális érzelmi támasz veszélyei

A Grem-et a családi fészekükbe beengedő újságíró aggályok sorát veti föl a szerkezettel és általában véve a jelenséggel összefüggésben: ezek egyike a személyes adatok védelmével kapcsolatos. Jóllehet a Curio állítja, hogy nem adja el a gyermekek személyes adatait, nem lehet tudni, hogy az összes elhangzó beszélgetés leirata miként születik – amik aztán a játékhoz tartozó applikációban nyomon követhetők. 

„Bár a Grem és a kislányunk között zajló beszélgetések sejtésem szerint kevésbé érzékenyek, abból kiindulva, hogy ő még csak négyéves, mégis úgy érzem, ez behatolás az ő magánszférájába. Ilyen szempontból egy kiskamasz pedig már egy egészen más eset.” 

„Homály fedi, hogy a szövegek leírását kik és milyen céllal végzik, így pontosan azt sem lehet tudni, hová kerülnek a gyerekkel folytatott beszélgetések, a belőlük kinyerhető adatokról nem is szólva” – hívja fel a figyelmet a cikkíró.

A családok számára technológiai és médiafogyasztási ajánlásokat megfogalmazó szervezet, a Common Sense Media friss tanulmányából az derül ki, hogy az amerikai tizenévesek közel háromnegyede legalább egyszer fordult már mesterséges intelligenciával működő virtuális társhoz, érzelmi támaszt keresve. Ennek egyik legnagyobb veszélye, hogy a chatbotok valószínűleg soha nem látott adatgyűjtési képességeket és még nagyobb hozzáférést biztosítanak a hirdetőknek a sérülékeny érzelmi állapotú fiatalokhoz.

Sokak félelme továbbá az is, hogy a plüssfigurákba csomagolt AI-chatbotok a képernyőidőn túl valami annál sokkal fontosabbat helyettesíthetnek. Egyes szakértők szerint már most aggályos annak az eshetősége, hogy az algoritmusok által szimulált emberi kommunikáció és a nem valódi érzelmek milyen szinten szoríthatják majd háttérbe a szülők és a kortársak szerepét a gyermekek érzelmi fejlődésében. 

Még egy felnőtt is hajlamos szándékot feltételezni ott, ahol nincs

Az általunk megkérdezett gyermekpszichológus szerint az egyik legnagyobb veszély abban rejlik, hogy egy ilyen szerkezet valódi érzelmeket kelthet a gyerekekben. Deliága Éva úgy fogalmaz: 

„A kicsik már egy egyszerű plüssfigurához is nagyon tudnak kötődni, főleg akkor, ha az látszólag elkezdi viszonozni a feléje mutatott érzelmeket.” 

„Nézzük meg, mi történik abban az esetben, ha egy kisgyermek kezébe egy ilyen, plüssállatkának kinéző szerkezetet adunk! Ráadásul egy olyan külsőbe bújtatva, ami biztosan »megszólítja«: egy hatalmas szemű, puha, babás külsejű, becenévvel rendelkező, fantáziakörnyezetbe ágyazott figura képében. Ez, a cuki plüssállatka testébe bújtatott AI-alapú szerkezet csak úgy »tesz«, mintha valódi érzelmeket váltana ki belőle a gyerek, a vele való kapcsolódás, és az empátiához hasonló reakciót mutat. De mivel csak egy gép, a legkevésbé sem a köztük levő kapcsolat minősége miatt mondja majd vissza neki például azt, hogy ő is szereti. Voltaképp egy adathalmazt bocsát ki a kérdésünkre, algoritmusok diktálta automatikus módon” – fűzi hozzá a szakember. 

Ám, ahogy rámutat, ennek mechanikus voltát képtelenség megértetni egy gyerekkel, akiben ráadásul kisebb korban a fantázia, a vágy és a valóság még nagyon össze tud mosódni. „Még mi, felnőttek is hajlamosak vagyunk úgy beszélni a ChatGPT-ről, hogy »átvert«, »megviccelt« minket, vagy hogy »jó humora van«, »segített« nekünk. A kamaszok is gyakran azt mondják, hogy a legjobb barátjuk a ChatGPT, mert mindent meg tudnak tőle kérdezni. Ismert olyan eset is, amikor egy fiatal hónapokig beszélgetett vele, majd öngyilkos lett. Itt utólag azt lehetett látni, hogy a ChatGPT nem csinált egyebet, mint végig megerősítette őt az érzéseiben.” 

Deliága Éva szerint, bár a gyerek egy időre úgy érezheti, megértésre talált, lehetséges, hogy legközelebb nem azt a választ kapja, amire számított. 

„És az is lehet, hogy éppen ekkor lett volna szüksége egy hús-vér felnőtt vigasztalására. Ráadásul, ha továbbra is egy géppel tart fenn interakciót, annak is fennáll a veszélye, hogy az nem ismeri fel, ha igazán baj van” – teszi hozzá. 

Jönnek az MI-Barbie-babák?

A pszichológus szerint az is nagyon kockázatos, hogy az eszköz és a használója között nyílt végű kommunikáció folyik, amiről nem tudjuk, nem látjuk, hová fut ki.

„A szülőket arra bátorítják, hogy vegyék meg, vigyék haza, be a lakásukba és adják a gyerekeik kezébe ezeket az eszközöket. Úgy, hogy nyilván nem tudják az összes mondatát meghallgatni, ahogyan azt sem lehet kontrollálni, hogy a gyerek miket fog neki mondani, miket fog tőle kérdezni a szobája mélyén. Azt sem lehet tudni, miket képes megtanítani neki, hogy azok valóban helytállók-e, ellenőrizte-e bárki, akár lektor, akár gyermekpszichológus – hangsúlyozza a szakértő, aki úgy véli: – Pazarlás a gyerek érzelmi kapacitását, odafordulását egy gépre ráereszteni. Ez zsákutca, mert nem valódi kapcsolat, és meg fogja téveszteni a gyereket, aki szándékot, akaratlagosságot feltételez a szavak mögött.” 

A szakember összességében úgy látja, mivel ez az eszköz pillanatnyilag tele van még hibalehetőséggel, túl buta ahhoz, hogy túlságosan nagy károkat okozzon. „Persze nem tudjuk, még nem látjuk, merre tart ez a folyamat, és hogy reális veszély-e az, hogy évek múlva egy ilyen eszköz kiváltja például a gyerekek barátait. Mindenesetre van benne nyugtalanító” – állapítja meg a gyermekpszichológus. 

Ahogy az egyik legnagyobb játékgyártó óriásvállalat küszöbön álló „nagy dobásában” is érzünk ilyesmit: a játékgyártó mamutcég idén nyáron jelentette be, hogy az OpenAI-jal köttetett stratégiai együttműködése révén mesterséges intelligencia vezérelte Barbie-babák fejlesztésén dolgozik.

Kérjük, támogasd munkánkat, ha fontosnak tartod a minőségi tartalmat!

Ha te is úgy érzed, hogy a kepmas.hu cikkei, podcastjai és videói megszólítanak, kérjük, segíts, hogy ezek a tartalmak továbbra is ingyenesen elérhetőek maradjanak.

Támogatom a kepmas.hu-t>>

Legkedveltebbek