Jeszcze trzydzieści lat temu dzieci na placach zabaw marzyły, że kiedy dorosną, ktoś będzie odrabiał za nie prace domowe. Szukały informacji w encyklopediach, które rodzice kupowali w kolejkach do księgarni, a w każdym domu na półce stała trylogia Sienkiewicza – symbol domowej erudycji, zapach papieru i druku oznaczał wtedy coś więcej niż tylko wiedzę. Był to znak, że w tym domu się rozmawia, że jest czas na myślenie i wspólne przeżywanie historii.
Dziś świat dzieci wygląda inaczej. Encyklopedię zastąpił ChatGPT. To on pomaga w zadaniach domowych, tłumaczy wzory, pisze wypracowania. Ale coraz częściej jest też kimś, kto odpowiada na pytania z życia codziennego: „czy pani nauczycielka ma prawo kazać mi śpiewać hymn?” albo „co zrobić, gdy ktoś ze mnie żartuje?”. Dla wielu dzieci, zwłaszcza tych z mniejszych miejscowości, księgarnia to już słowo niemal archaiczne. Książki, które kiedyś zajmowały dumne miejsce na półkach, oddaje się do biblioteki albo wystawia na makulaturę.
Książka przestała być symbolem pewności siebie i wiedzy. Nie pachnie już przygodą, tylko kurzem. Zastąpiła ją odpowiedź wyświetlająca się w sekundę – szybka, poprawna, gotowa. I choć technologia daje wiele – skraca drogę, oszczędza czas – to coraz częściej mam wrażenie, że odbiera coś, czego nie da się kupić ani wygenerować. Relację.
Coraz więcej badań potwierdza, że sztuczna inteligencja – choć fascynująca i inspirująca – niesie ze sobą ryzyko osłabienia więzi międzyludzkich.
Artykuł „Can Generative AI Chatbots Emulate Human Connection? A Relationship Science Perspective” (2025) pokazuje, że chatboty mogą być atrakcyjne jako towarzysze, ale nie zastąpią relacji z drugim człowiekiem. Co więcej – osoby o mniejszej sieci społecznej częściej zwracają się ku sztucznej inteligencji. Badacze zauważyli, że intensywne korzystanie z takich systemów może obniżać dobrostan psychiczny, ponieważ AI zaspokaja potrzebę kontaktu tylko powierzchownie. To relacja „na skróty” – łatwa, przewidywalna, bez ryzyka odrzucenia.
Podobnie w badaniu „Impact of media dependence: how emotional interactions between users and chat robots affect human socialization?” (2024) wskazano, że emocjonalne uzależnienie od rozmów z chatbotem może ograniczać rozwój kompetencji społecznych. Dziecko, które zamiast rozmawiać z kolegą wybiera rozmowę z maszyną, traci okazję do ćwiczenia empatii, rozumienia emocji i reakcji drugiej osoby. A przecież to właśnie te mikrodoświadczenia uczą nas, jak być z ludźmi, jak przyjąć krytykę, jak cieszyć się wspólnym sukcesem.
Z kolei autorzy pracy „The impacts of companion AI on human relationships: risks, benefits, and design considerations” (2025) zwracają uwagę, że dzieci – szczególnie wrażliwe i otwarte na relacje – mogą nauczyć się reagować tylko na „łatwą” emocjonalność sztucznej inteligencji. AI zawsze wysłucha, nie przerywa, nie dąsa się. A przecież prawdziwa relacja bywa trudna, wymaga wysiłku, empatii i pokory. Tylko w kontakcie z drugim człowiekiem uczymy się, że emocje bywają nieprzewidywalne, że czasem trzeba przeprosić, a czasem po prostu przytulić.
Niepokojące są też wyniki badań „Depression and the use of conversational AI for companionship among college students” (2025), które pokazują, że osoby samotne, korzystające z chatbotów jako towarzyszy, częściej doświadczają objawów depresji. To paradoks naszych czasów – im więcej „rozmawiamy” z technologią, tym mniej rozmawiamy ze sobą.
Człowiek jest istotą społeczną. Potrzebuje drugiego człowieka, by odbijać się w nim jak w lustrze. W kontakcie z innymi kształtujemy swoje emocje, tożsamość, wiarę w siebie. Bez tego relacja z samym sobą staje się pusta. Nie wystarczy, że ktoś – choćby najbardziej „ludzko” zaprogramowany chatbot – wysłucha naszych słów. Bo nie chodzi tylko o słowa. Chodzi o spojrzenie, o gest, o to krótkie „rozumiem cię”, które w ustach człowieka brzmi zupełnie inaczej niż w syntetycznym głosie.
Dlatego tak ogromną rolę widzę dziś w kształceniu trenerów mentalnych, psychologów, pedagogów, którzy w swojej pracy bazują na kompetencjach miękkich – empatii, uważności, komunikacji, autentyczności. Bo to one mogą uratować młode pokolenie przed kryzysem tożsamości i człowieczeństwa.
Kiedy rozmawiam z młodzieżą, często słyszę: „ChatGPT mnie rozumie, on się nie złości, nie ocenia”. I wtedy odpowiadam: „Tak, ale też nie cieszy się z tobą, nie przytuli cię, nie spojrzy w oczy”. Tylko człowiek może dać drugiemu człowiekowi doświadczenie bycia zauważonym, a to doświadczenie jest fundamentem zdrowej psychiki.
Technologia może być narzędziem. Może wspierać, uczyć, inspirować. Ale nie może być celem samym w sobie. Bo jeśli zaczniemy ufać bardziej algorytmom niż ludziom, to przestaniemy być społecznością – staniemy się siecią połączeń, które niczego już nie łączą.
W treningu mentalnym drzemie magia. Taka sama, jaka kiedyś ukrywała się w zakładkach do książek – tych pachnących drukiem, zapisanych ołówkiem, z drobną notatką „ważne!”. Tam, między stronami, czekało coś więcej niż wiedza – czekało uczucie. Dziś tę samą wartość możemy odnaleźć w rozmowie, w ćwiczeniu uważności, w prostym pytaniu zadanym dziecku: „Jak się z tym czujesz?”.
Każdy młody człowiek potrzebuje kogoś, kto pokaże mu, że relacja to nie wymiana danych, tylko wymiana emocji. Że człowiek to nie kod, a spotkanie – to nie aktualizacja, ale doświadczenie, które zmienia na zawsze.
Wierzę, że dopóki w naszych gabinetach, szkołach i salach treningowych słychać śmiech, wzruszenie i autentyczną rozmowę, dopóty żaden chatbot nie zastąpi człowieka. Bo choć może on znać wszystkie definicje emocji, to nigdy nie poczuje ich tak, jak my – ludzie.
Autorka: Monika Stępień-Dyler – psycholożka, trenerka mentalna pracująca z dziećmi i młodzieżą




