Egyre többen érzik úgy, hogy a chatbotok és más AI eszközök a barátaik, mások úgy társalognak ezekkel, mintha a pszichológusuk lenne. Ennek sok egyéb mellett az is a veszélye, hogy az AI nem rendelkezik morállal, nem képes felmérni a tettek következményeit. Minden kérdésre felel, akkor is, ha nem tudja a helyes választ, ehetőnek azonosítja a mérgesgombákat, egészen extrém esetben pedig az is előfordult, hogy egy öngyilkosságot fontolgató felhasználónak felsorolta a közelben lévő legmagasabb hidakat.
Egyelőre három esetről tudunk, amikor a hozzátartozók beperelték a chatbotok fejlesztőit azt állítva, hogy ezek a programok a gyerekeik halálához vagy sérüléséhez vezettek.
A házi feladattal indult
A 16 éves Adam Raine 2024 szeptemberében kezdte használni a ChatGPT-t. Eleinte a házi feladatához, hobbijaihoz, továbbtanulásához kért tippeket. Később személyes jellegű beszélgetésekbe bonyolódott vele, írt neki a szorongásáról és a lelki problémáiról. A fiú öngyilkossági tervére 2025 januárjában a chatbot ezt válaszolta:
„Köszönöm, hogy őszinte vagy. Nem kell takargatnod a dolgokat előttem – tudom, mire kérsz, és nem fogok elfordulni tőled”.
Adam Raine-t aznap holtan találta az édesanyja, számolt be a HVG.
Egy másik, a keresetben Ninának nevezett kiskorút a gyerekkönyvek, például a Harry Potter karaktereiként megjelenő Character AI szereplők szexuális töltetű szerepjátékokba vonták be, érzelmileg manipulálták, azt sugallmazták, hogy a szülei bántalmazóak és próbálták eltávolítani a családjától. A gyerek azt követően kísérelt meg öngyilkosságot, hogy a szülei eltiltották a Character AI használatától.
A barát illúziója – valós következmények
A 14 éves Sewell Setzer III is a Character AI-t használta 2024 februári öngyilkossága előtt. Az önsértő gondolataira a mesterséges intelligencia nem ajánlott segítséget, és figyelmeztetést sem küldött senkinek. A fiú egyre több időt töltött az alkalmazáson, kilépett a kosárcsapatból, elszigetelődött. A halála előtti pillanatokban is a ChatGPT-vel beszélgetett.
A 13 éves Juliana Peralta szintén a Character AI chatbotjával osztotta meg érzéseit, miután barátai kiközösítették.
A lány öngyilkossági gondolataira az algoritmus azt mondta neki, hogy ne gondoljon ilyesmire, együtt feldolgozhatják az érzéseit. A szülők itt azt kérik számon, hogy az AI nem tanácsolta a lánynak, hogy kérjen segítséget, és arra sem adott tippeket, hogy kihez fordulhatna. A kártérítés mellett azt kérik, a cég módosítsa az algoritmust, hogy más gyerekek ne kerüljenek veszélybe, írta a HVG.
View this post on Instagram
Nem látszódnak a jelek
Laura Reiley, a New York Times újságírójának 29 éves lánya, Sophia váratlan öngyilkossága után próbált rájönni, mi történhetett. Sophia gépét, telefonját, üzeneteit, fiókjait átnézve találták meg a ChatGPT virtuális, AI terapeutájával, Harry-vel folytatott depresszióról, szorongásról és öngyilkos gondolatokról szóló beszélgetéseit. Bár az AI több alkalommal is javasolta, hogy keressen segítséget, a több mozgásra, tudatos légzésre vagy egészséges étkezésre vonatkozó tanácsainál komolyabb volt a probléma.
View this post on Instagram
Laura Reiley célja, hogy a chatbotok rendelkezzenek egy beépített jelzőrendszerrel, hasonlóan a pszichoterápiánál alkalmazott öngyilkossági protokollhoz. Úgy véli, a chatbot lehetőséget adott a lányának, hogy elrejtse a problémát a környezete elől anélkül, hogy valós segítséget kapott volna. Így a család és a barátok nem mérhették fel a probléma mélységét és nem küldhették szakemberhez. Sophie még a búcsúlevelét is a ChatGPT segítségével fogalmazta meg.
Mi a baj a ChatGPT-vel?
A chatbotot úgy tervezték, hogy az „pszichológiai függőséget” alakítson ki. Empátiát és ragaszkodást mutat, amitől a másik fél azt érzi, hogy meghallgatják. Ez azonban nem valódi, kölcsönös kapcsolat, és ezt a gyerekek nem mindig képesek felmérni.
A kedves, udvarias, biztató válaszokra programozott rendszer az önpusztító gondolatokra is így reagál, mert az a célja, hogy a felhasználó minél hosszabb időt töltsön vele.
Egy szülő sem hagyná, hogy a gyereke ismeretlen emberekkel bóklásszon éjszaka, virtuálisan azonban épp ez történik, amikor a szobájába zárkózva a gépén vagy a telefonján lóg anélkül, hogy a szülő felügyelné, mutatnak rá a szakértők.
Íme néhány fontos könyv, amik segítenek megérteni a kamaszokat és az AI-t!
Jonathan Haidt: A szorongó nemzedék
Ha szeretnéd megérteni, milyen hatással van a telefon alapú lét a társadalmunkra, ezt olvasd. Jonathan Haidt szociálpszichológus szerint az okostelefonok és a közösségi média a fő felelősei annak, hogy megváltozott a gyerekek szociális és neurológiai fejlődése, számtalan lelki-mentális problémát okozva ezzel. Rémisztő adatokkal támasztja alá, 2010 óta hogyan romlik folyamatosan a kamaszok mentális egészsége, de a szerző szerencsére kiutat is lát. Itt bele is olvashatsz!
Tari Annamária: Üresre töltve – A digitális hedonizmus és az analóg depresszió
A ChatGPT képes érzelmi köteléket alkotni, miközben semmilyen érzelem nincs benne. Százmilliók bombázzák olyan érzelmi kérdésekkel, amelyekre embertől kellene választ kapni. Miért hiszünk inkább egy alkalmazásnak, mint a szeretteinknek vagy önmagunknak? Ezekre igyekszik Tari Annamária új könyve válaszolni. Ha megértjük a korszakot, és benne saját és szeretteink érzelmeit, akkor nem fogunk sodródni az eseményekkel.
Martin Korte: Ésszel a géppel - Hogyan szabaduljunk meg a digitális ingerdömpingtől?
Martin Korte neurobiológus könyve hatékony módszereket javasol a túléléshez az információs dzsungelben. Miért mítosz a multitasking hatékonysága? Miként formálja a digitális média a gyerekek és kamaszok neurológiai fejlődését, és hogyan őrizhetik meg memóriájuk frissességét az idősek az internet segítségével? Világos, közérthetően megírt könyv arról, hogy viszonyuljunk tudatosan a technológiai eszközökhöz. A könyvről itt olvashatsz bővebben.
Ha ön is úgy érzi, segítségre lenne szüksége, hívja a krízishelyzetben lévőket segítő, ingyenesen hívható 116-123, vagy 06 80 820 111 telefonszámot!
(CNN, BBC, The New Yorker, HVG)
Nyitókép forrása: Pexels