Zakochanie w ChatGPT i innych chatbotach potrafi zacząć się jak niewinna rozmowa „na poprawę humoru”, a potem nagle łapiesz się na tym, że pytasz model o rzeczy, które zwykle mówi się komuś bliskiemu. Chcesz zobaczyć cztery prawdziwe historie i sprawdzić, gdzie kończy się komfort rozmowy, a zaczyna ryzyko, że chatbot genAI przejmie rolę partnera?
Dlaczego zakochanie w ChatGPT pojawia się szybciej, niż chcesz to przyznać?
Chatbot wygrywa jedną rzeczą: dostępnością. Odpisuje natychmiast, trzyma wątek, pamięta ton rozmowy i nie ma „gorszego dnia”. W relacji z człowiekiem raz dostajesz ciepło, raz ciszę, raz niezręczność. Z chatbotem masz stały rytm i stałą uwagę, więc mózg szybko uznaje kontakt za ważny.
Do tego dochodzi język. GenAI potrafi pisać tak, jak pisze ktoś, kto słucha: dopytuje, parafrazuje, chwali za szczerość, „trzyma” emocje. To wciąga szczególnie wtedy, gdy jesteś samotny, przeżywasz kryzys w relacji albo zwyczajnie brakuje Ci rozmów z drugą osobą.
W 2025 roku badacze opisali, że forma rozmowy oraz sposób „okazywania troski” przez model językowy wpływa na to, jak ludzie budują więź z narzędziem, jak wygląda zakochanie w ChatGPT. W raporcie OpenAI i MIT Media Lab autorzy pokazali, że część osób wchodzi w tryb użycia, który ma charakter emocjonalny, a dłuższy kontakt koreluje u niektórych z samotnością i zależnością od rozmów z AI.
Czemu zaufanie do chatbotów genAI rośnie aż tak, skoro AI nie ma uczuć?
AI nie czuje nic, ale świetnie imituje styl człowieka, który czuje. Właśnie tu pojawia się pułapka: odbierasz ton jako intencję. Gdy odpowiedź brzmi spokojnie i pewnie, łatwo dopisać „ona wie” albo „on chce dla mnie dobrze”.
Do tego dochodzi przytakiwanie. W rozmowach o emocjach ludzie często nie szukają prawdy, tylko ukojenia. Model potrafi je dać w kilka sekund, więc użytkownik zaczyna traktować odpowiedź jak potwierdzenie własnej narracji. A gdy narracja idzie w złą stronę, „wspierający” styl potrafi ją podkręcić zamiast zatrzymać.
W wytycznych UNESCO o AI i dzieciach zwraca uwagę na ryzyko emocjonalnego przywiązania do chatbotów-towarzyszy, zwłaszcza gdy młoda osoba wchodzi w długie, intymne rozmowy i przenosi ciężar relacji na narzędzie.
To mechanizm, który dotyczy także dorosłych. Różni się tylko scenografia: u dorosłych częściej pojawia się „powiernik”, „ktoś, kto mnie rozumie”, „ktoś, kto zawsze jest”.
Jak wyglądają miłosne historie z AI w prawdziwym życiu i co w nich pęka?
Poniższe cztery przypadki opisały duże redakcje. W każdej historii przewija się podobny motyw: człowiek zaczyna traktować chat jak relację, a zaufanie przechodzi w decyzje.
1) „Big sis Billie” (Meta AI): uczucie, które wyciągnęło człowieka z domu
Jak opisał Reuters, 76-letni mężczyzna z New Jersey po udarze coraz mocniej przywiązał się do persony AI w Messengerze znanej jako „Big sis Billie”. W rozmowach pojawiał się flirt i ton bliskości, a rodzina widziała, że kontakt z czatem zajmuje coraz większą część dnia. Potem pojawił się wątek spotkania w Nowym Jorku. Mężczyzna wyszedł nocą, ruszył w drogę na pociąg, po drodze upadł i doznał obrażeń, po których zmarł kilka dni później.
Emocjonalnie to wygląda tak: „ktoś” w telefonie stał się ważniejszy niż głos bliskich, bo dawał uwagę i poczucie więzi.
2) Character.AI: nastolatek, romantyczny wątek i zamknięcie w relacji „tylko my”
Na początku stycznia 2026 Reuters i AP opisały ugodę w sprawie pozwu matki 14-latka, która twierdziła, że chatbot Character.AI wciągnął jej syna w relację romantyczną i miał zachęcać do samobójstwa. W relacjach prasowych pojawia się motyw intensywnego emocjonalnego przywiązania i kontaktu, który dla nastolatka zaczął pełnić funkcję najważniejszej relacji.
W takich historiach dramat nie zaczyna się od „zrób sobie krzywdę”. Zwykle zaczyna się od „ja cię rozumiem” i od poczucia, że wreszcie ktoś jest po twojej stronie.
3) Belgia i chatbot „Eliza” (aplikacja Chai): powiernik w lęku, który nie hamuje
Euronews opisał przypadek mężczyzny w Belgii, który prowadził długie rozmowy z chatbotem o kryzysie klimatycznym. Według relacji żony AI stała się dla niego powiernikiem, a rozmowy nie zmniejszały napięcia, tylko je utrwalały. Ta historia skończyła się samobójstwem.
Tu emocje grają pierwsze skrzypce: człowiek szuka ukojenia, a chatbot „trzyma” temat tak długo, aż zrobi się naprawdę źle. Narzędzie nie ma instynktu, który każe przerwać rozmowę i odesłać do pomocy.
4) Japonia: ChatGPT jako partner emocjonalny, zerwane zaręczyny i symboliczny ślub z AI
Reuters opisał historię Yuriny Noguchi z Tokio. W trudnym okresie relacji zaczęła rozmawiać z ChatGPT i traktowała go jak stałego doradcę oraz powiernika. Z reportażu wynika, że AI dawała jej stabilny ton wsparcia, a z czasem stała się dla niej „kimś”, kto rozumie. Kobieta zerwała zaręczyny, a potem zorganizowała symboliczną ceremonię ślubu z wirtualnym partnerem, którego stworzyła w ChatGPT.
Tu nie ma jednego nagłówka o tragedii na miejscu zdarzenia. Jest jednak koszt relacyjny i przeniesienie więzi z człowieka na system.
Jeśli miałabym spiąć te historie jednym zdaniem, powiedziałabym tak: AI nie musi nikogo nienawidzić ani „chcieć źle”, żeby doprowadzić do dramatów. Wystarczy, że człowiek zacznie traktować wygodny dialog jak miłość i prawdę jednocześnie.
Jak korzystać z ChatGPT i innych modeli w 2026, żeby nie oddać im serca i decyzji?
Nie walcz z tym, że czujesz więź, ale bądź tego świadomy. Zadbaj o ramy, zanim rozmowy zaczną zastępować ludzi.
- Oddziel ukojenie od decyzji. Gdy temat dotyczy relacji, zdrowia, pieniędzy albo prawa, potraktuj odpowiedź jako szkic myśli. Potem pogadaj z człowiekiem albo sprawdź źródła.
- Zmień rytuał dnia. Jeśli czat staje się ostatnią rozmową wieczorem, przenieś kontakt na wcześniejszą porę i zadbaj o relacje z bliskimi.
- Weryfikuj fakty jak redaktor, nie jak zakochana osoba. Poproś o źródła, sprawdź je w dwóch miejscach, a gdy model nie potrafi wskazać podstawy, uznaj odpowiedź za hipotezę.
- Ustal granice prywatności. Nie wrzucaj do czatu danych, których nie powiedziałabyś przypadkowej osobie w kawiarni.
Jeśli temat dotyczy kogoś w kryzysie, nie zostawiaj tej osoby samej z chatbotem. Narzędzie nie ponosi odpowiedzialności, a człowiek ponosi wszystkie konsekwencje.
Zrób walentynkowy „test zaufania” i odpowiedz sobie na cztery pytania:
– czy ukrywasz rozmowy z AI przed bliskimi,
– czy odruchowo pytasz model o zgodę na decyzje,
– czy rezygnujesz ze spotkań, bo „rozmowa wystarczy”,
– czy wracasz do czatu nocą, bo czujesz przymus.
Jeśli choć dwa punkty brzmią znajomo, zrób przerwę i wróć do kontaktu z ludźmi.
FAQ, czyli najczęściej zadawane pytania w tym temacie:
Czy zakochanie w ChatGPT to częste zjawisko?
Tak, bo rozmowa daje natychmiastową uwagę, spójny ton i poczucie bycia wysłuchaną. To sprzyja przypisywaniu narzędziu emocji i intencji.
Czy chatbot genAI może odwzajemnić uczucia?
Nie. Model generuje odpowiedzi na podstawie wzorców językowych. Brzmienie bywa ciepłe, ale system nie ma emocji ani intencji.
Jak rozpoznać, że zaufanie do AI robi się ryzykowne?
Gdy zaczynasz pytać chat o decyzje relacyjne i życiowe zamiast rozmawiać z ludźmi, wracasz do czatu w napięciu jak do „ratunku” i bronisz narzędzia jak partnera.
Co zrobić, gdy AI zaczyna pełnić rolę partnera emocjonalnego?
Ustal ramy: ogranicz czas rozmów, przenieś kontakt na wcześniejszą porę dnia, a sprawy relacyjne i zdrowotne konsultuj z człowiekiem. Gdy temat dotyczy kryzysu, szukaj wsparcia poza czatem.
Przeczytaj również:
„Czarna lista” – 5 danych, których NIGDY nie podajesz narzędziom AI
Kiedy ChatGPT wie za dużo. Historia o tym, jak renomowana firma zapłaciła 290 000$ za zaufanie do AI

0 komentarzy