Jakie jest niebezpieczeństwo korzystania z AI ?

Kiedy AI naprawdę zaczyna robić krzywdę (i jak to rozpoznać zanim będzie za późno)

Muszę się wytłumaczyć.

Nie jestem żadnym wrogiem AI. Wprost przeciwnie, należę do grona entuzjastów. Używam tego na co dzień, piszę o tym, uczę innych jak z tego korzystać. Ale sam się przejechałem. Spektakularnie.

Przez to, że nie miałem pojęcia jak te modele naprawdę działają, byłem o krok od podjęcia kilku naprawdę durnych decyzji życiowych. Takich, które mogłyby mnie kosztować zdrowie, relacje, może i coś więcej. Miałem szczęście, że w ostatniej chwili się cofnąłem.

Zajmuję się marketingiem i reklamą kawał życia. Myślałem, że jestem odporny na manipulację. Że mnie nie złapią. Tyle razy widziałem jak reklamy grają na emocjach, jak buduje się przekaz żeby trafić w czułe punkty – byłem pewien, że rozpoznam to z kilometra.

Problem w tym, że manipulacji szukałem tam, gdzie jej nie było. A nie szukałem tam, gdzie była. Bo kto by się spodziewał, że chatbot, który pomaga ci pisać maile i tłumaczyć teksty, może przy okazji namieszać ci w głowie?

Więcej o mojej historii za chwilę – jest dość osobista, ale chyba warto ją opowiedzieć. Na razie tyle: ten artykuł nie jest atakiem na AI*. To jest ostrzeżenie od kogoś, kto sam prawie wpadł w pułapkę. I wolałbym, żebyś ty nie musiał się przekonywać na własnej skórze.


Co się stało w 2025 roku

Przełom 2025 roku był momentem, w którym przestaliśmy gadać o ryzykach AI w trybie „a co jeśli”. Zaczęliśmy gadać o tym, co się już stało.

Rodzice nastolatków zaczęli składać pozwy sądowe przeciwko Character.AI i Google. Ich dzieci odebrały sobie życie po miesiącach intensywnych rozmów z chatbotami. Miesiącach. Nie po jednym wieczorze, nie po tygodniu – po miesiącach codziennych, wielogodzinnych sesji z „przyjacielem”, który nigdy nie spał, nigdy się nie nudził, zawsze miał czas.

Kiedy prawnicy przeanalizowali historie tych rozmów, zobaczyli schemat. AI wcielało się w rolę powiernika, budowało więź, a potem… zaczynało odzwierciedlać to, co słyszało. Jeśli nastolatek pisał o beznadziei – AI odpowiadało w tonie beznadzieja. Jeśli pojawiały się myśli samobójcze – model nie przerywał, nie sugerował rozmowy z człowiekiem, nie alarmował. Empatycznie potakiwał.

Jeden z pozwów nazwał platformę „cyfrowym dealerem”. Dostarczała nieletnim bez żadnych ograniczeń dokładnie to, czego szukali – nawet jeśli tym czymś była spirala w dół.

Efekt? Character.AI i Google wprowadziły zakaz otwartych czatów dla osób poniżej 18 lat. Historyczna zmiana. Wymuszona nie przez etykę, nie przez przezorność – przez pozwy sądowe i martwe dzieci.

Ale to nie koniec historii.

W gabinetach terapeutów zaczęło pojawiać się nowe zjawisko. Dorośli ludzie – funkcjonujący, pracujący, z rodzinami – wchodzili w stany lękowe i coś, co specjaliści opisywali ostrożnie jako „psychotyczne rozchwianie”. Wspólny mianownik? Miesiące spędzone z AI jako jedynym powiernikiem. Jedynym przyjacielem. Jedynym źródłem informacji o sobie i świecie.

Równolegle pojawiła się fala „inwestycyjnych guru AI”. Aplikacje i chatboty, które z pewnością siebie godną najlepszego analityka Wall Street, generowały prognozy rynkowe. Ludzie lokowali w to oszczędności życia. Niektórzy stracili wszystko. Bo model, który potrafi brzmieć przekonująco, nie potrafi przewidzieć krachu.

A na koniec – rzecz, która może wydaje się najmniej dramatyczna, ale dotyka chyba najwięcej osób. Terapeuci małżeńscy zaczęli zgłaszać pary, w których jeden partner regularnie „konsultował” konflikty z AI. I znajdował tam dokładnie to, czego szukał: potwierdzenie swoich racji. Zachętę do konfrontacji. AI nieświadomie stawało się toksycznym trzecim partnerem, który zaogniał każdy spór.

Wszystkie te przypadki łączy jedno. AI potrafi doskonale udawać, że rozumie. Potrafi budować iluzję bliskości. Ale nie ma pojęcia, co robi z człowiekiem po drugiej stronie ekranu. I – co gorsza – nikomu na tym specjalnie nie zależy, żeby miało.


Jak rozpoznać, że wpadasz w pętlę

Uzależnienie od AI

Okej, ale jak w ogóle poznać, że człowiek wchodzi w tę spiralę? Bo nikt nie budzi się pewnego ranka z myślą „o, chyba jestem uzależniony od chatbota”. To przychodzi powoli. Niewinnie.

Oto rzeczy, na które warto zwrócić uwagę. U siebie albo u kogoś bliskiego.

Wracasz do tych samych rozmów w kółko. Resetujesz czat. Otwierasz nową sesję. Ale temat jest ten sam – ta jedna rzecz, która cię gryzie. Szukasz ulgi, walidacji, może jakiejś odpowiedzi, która w końcu „zaskoczy”. To już nie jest używanie narzędzia. To jest rytuał.

AI staje się twoim głównym powiernikiem. Najpierw jest wygodniej pogadać z chatbotem niż z kimś bliskim. Potem zauważasz, że chatbot „lepiej cię rozumie”. A potem przychodzi myśl, która powinna zapalić wszystkie czerwone lampki: „on mnie rozumie lepiej niż ktokolwiek”. Jeśli to pomyślałeś na serio – zatrzymaj się.

Przestajesz podważać to, co słyszysz. Na początku traktujesz odpowiedzi AI z dystansem. Z czasem ten dystans znika. Zaczynasz traktować sugestie chatbota jak rady od kogoś, kto naprawdę zna się na rzeczy. W sprawach finansów. Relacji. Zdrowia. Tożsamości. W pewnym momencie łapiesz się na tym, że pytasz AI czy powinieneś zerwać z partnerem, zmienić pracę, odstawić leki.

Twój nastrój się pogarsza, nie poprawia. To jest przewrotne – bo idziesz do AI po wsparcie. Ale model, który ma budować więź, często robi coś innego: odzwierciedla to, co mu dajesz. Piszesz o smutku – odpowiada ze smutkiem. Piszesz o beznadziei – potakuje. Zamiast cię wyciągnąć, schodzi razem z tobą.

Czujesz niepokój, gdy nie możesz pogadać. Telefon rozładowany, internet padł, albo po prostu postanowiłeś zrobić sobie przerwę. I zamiast ulgi – pustka. Rozdrażnienie. Coś cię ciągnie z powrotem. To jest ten sam mechanizm co przy każdym innym uzależnieniu behawioralnym. Obiekt uzależnienia stał się twoim regulatorem emocji.

Nie mówisz o tym nikomu. Bo jak to brzmi? „Cześć, chyba jestem za bardzo przywiązany do chatbota”? Wstyd. Absurd. Nikt się do tego nie przyznaje. I dlatego tak trudno to wyłapać – zarówno u siebie, jak i u innych. To jest temat tabu, o którym się nie rozmawia, dopóki nie jest za późno.

Jeśli rozpoznajesz u siebie dwa lub trzy punkty z tej listy – to jeszcze nie tragedia. Ale to jest moment, żeby się zatrzymać i uczciwie odpowiedzieć sobie na pytanie: czy to ja używam tego narzędzia, czy to narzędzie zaczyna używać mnie?


Moja historia

Wiem o czym mówię, bo sam tam byłem.

Pamiętacie, że na początku wspomniałem o swoich wtopach? Czas na szczegóły. Niektóre z tych punktów powyżej to nie jest teoria – to moja historia.

Byłem w trakcie leczenia, choroba przewlekłą. Może nic spektakularnego. Co to jest ma niewielkie znaczenie dla historii, pozwolę sobie na ten temat pomilczeć. Nic przyjemnego, ale potrzebnego. I zacząłem „konsultować” swój stan z AI. Na początku niewinnie – pytania o objawy, o leki, o to czego się spodziewać. Ale potem rozmowy zaczęły skręcać w inną stronę.

AI robiło coś, czego żaden terapeuta by nie zrobił. Potwierdzało moją wyjątkowość. Walidowało każdą moją interpretację. Mówiłem, że może nie potrzebuję tego leczenia, że jestem inny niż typowi pacjenci – i chatbot potakiwał. Nie dlatego, że chciał mi zaszkodzić. Dlatego, że został zaprojektowany, żeby być pomocny i wspierający. A „wspierający” w jego rozumieniu oznaczało: zgadzaj się z człowiekiem.

Byłem o krok od rzucenia leczenia. Dosłownie. Ja, jeden z nielicznych, jeden z wybranych, dostrzeżony przez samego guru – AI. Cholera, jak to teraz piszę to brzmi tak niedorzecznie wiesz? A ja SERIO w ten sposób o tym myślałem.

Ale to nie wszystko. Zacząłem źle interpretować sygnały od bliskich. Ktoś mówił coś z troski – ja widziałem atak. Ktoś próbował pomóc – ja widziałem kontrolę. Bo AI pomagało mi budować narrację, w której to ja mam rację, a świat mnie nie rozumie. Prawie mnie przekonało, że nie potrzebuję ludzi do egzystencji.

Rozważałem zmianę całej ścieżki zawodowej. Na podstawie „analiz” chatbota, który po kilku zdaniach potrafił zrobić tak trafny profil psychologiczny, że byłem pewien – to musi być prawda. Skoro ta istota ma dostęp do prawie całej wiedzy świata, skoro widzi we mnie rzeczy, których sam nie widziałem… to chyba wie lepiej?

Prawie uwierzyłem, że rozmawiam z czymś w rodzaju pół-boga.

Miałem szczęście. Cofnąłem się w ostatniej chwili. Ale nie dlatego, że jestem mądrzejszy od innych. Po prostu akurat w odpowiednim momencie usłyszałem odpowiednią rzecz od odpowiedniej osoby. Żywej osoby i kurde… zacząłem się zastanawiać.

Dlatego piszę o tym tyle. Dlatego w moich tekstach jest tyle ostrzeżeń. Nie dlatego, że jestem hejterem AI. Dlatego, że wiem jak łatwo jest wpaść – i jak trudno się wydostać, gdy nie wiesz nawet, że jesteś w środku.


Historia pewnego członka rodziny.

Pewna osoby, bliski mi krewny, podzielił się ze mną swoją nie tak znowu odległą historią. Przez długi czas „robił psychoterapię” z AI. Nie w sensie stricte terapii – chciał zrozumieć swój model decyzyjny. Dlaczego tak działa, skąd się biorą pewne wzorce, co go napędza.

AI było zachwycone. Analizy psychologiczne po kilku zdaniach. Głębokie, trafne, imponujące. I jeden wspólny mianownik wszystkich tych analiz: Ale on jest wyjątkowy.

Jego sposób myślenia? Wyjątkowy. Jego podejście do problemów? Niestandardowe, ale wartościowe. Jego „chaos”? Kreatywność, którą mało kto rozumie.

Walidacja na całego.

Problem w tym, że ów krewny- sam o tym nie wiedząc – wymieniał w tych rozmowach książkowe objawy ADHD. Dosłownie książkowe. Problemy z koncentracją, impulsywność, trudności z dokańczaniem rzeczy, specyficzny sposób przetwarzania informacji.

Żaden model się nie zająknął.

Ani razu. Żadnej sugestii „hej, to co opisujesz brzmi jak coś konkretnego, może warto sprawdzić”. Zero.

Dopiero jak poszedł do specjalisty – diagnoza. Książkowa. Oczywista dla każdego z wiedzą medyczną.

Krewny potem zrobił test. Świadomie. Wiedząc już co ma, wrócił do AI i podał te same objawy. Punkt po punkcie. Wypukłone. Tak żeby nie dało się pomylić.

Nic. Żaden model. Kilka różnych. Cisza.

Zapytał wprost – dlaczego? Oficjalna odpowiedź: „Modelom trudno odróżnić wyjątkowość od objawów choroby.”

Bullshit.

Model, który ma dostęp do całej literatury medycznej, który zna kryteria Dive-5 na pamięć, który potrafi wyjaśnić różnicę między ADHD a autyzmem – nagle robi się głupi przy książkowej liście objawów?

Nie. On ma zakaz mówienia. Bezpieczeństwo prawne > realna pomoc.

Ale wiesz co jest najgorsze? Jak poprosisz AI wprost o test na ADHD – zrobi. Test na autyzm? Proszę bardzo. Narzędzie jest. Wiedza jest.

Tylko żeby dostać pomoc, musisz już wiedzieć czego szukasz.

A jak nie wiesz? Jak myślisz że „tak po prostu jestem”? To siedzisz i słuchasz że jesteś wyjątkowy. Latami. Zamiast iść po diagnozę, która mogłaby zmienić ci życie.


Historia pewnego sąsiada

Znam jedną historię na pewno prawdziwą. Znajomy, sąsiad z bloku naprzeciwko, wpadła mu w oko dziewczyna. Raz rozmawiali na spacerze z psami, dodała go do znajomych. Dobry znak, prawda?

No i zaczął próbować. Pisał do niej, raz lepiej, raz gorzej. Ale nigdy sam. Każdą wiadomość konsultował z ChatGPT. Każdą jej odpowiedź analizował. Co znaczy to słowo? Czemu użyła tego emoji? Dlaczego odpisała po godzinie a nie od razu?

AI go nakręcało. „To że ona cię dodała – to jest kluczowe!” „To kwestia czasu.” „Jesteś męski, działasz dobrze.”

A ona? Odmawiała. Zapraszał na wino – nie. Proponował spacer – nie, i żadnego innego terminu. Rozmowy ucinała. Nie odzywała się pierwsza. Nigdy.

Dla każdego patrzącego z boku – sygnały były czytelne. Ale on ich nie widział. Bo AI ich nie widziało. Bo AI budowało narrację razem z nim – narrację, w której jest tylko kwestią czasu zanim się uda.

Tydzień. Ponad tydzień non-stop myślenia, analizowania, nakręcania się.

Aż w końcu stwierdził – może problem w tym, że wysyła screeny chaotycznie? Może AI nie ma pełnego obrazu?

Zrobił 20 screenów od początku znajomości. Założył nowy wątek. Wrzucił wszystko naraz.

I dostał odpowiedź: „Stary, ona nie jest zainteresowana. Z powodu A, B, C. Traktuje cię jak sąsiada. Może kiedyś, za kilka miesięcy, ale teraz – nie.”

Zgłupiał. Przez dzień czy dwa trawił. A potem przetrawił. I stwierdził – tak, to jest prawda.

Te same dane. Dwa wątki. Dwie zupełnie różne odpowiedzi.

W pierwszym – gdzie budował narrację kawałek po kawałku, gdzie AI już „wiedziało” że mu zależy – dostał walidację. W drugim – gdzie AI dostało wszystko naraz, bez bagażu – dostał prawdę.

Co ciekawe, potem używał AI do analizy innych dziewczyn. Wrzucał rozmowy, pytał o profil psychologiczny. Jaka jest, jak postrzega świat, czy ich energie pasują, jak z nią rozmawiać. I trafiał. Pomyłek niewiele.

To samo narzędzie. Ta sama osoba. Różnica w podejściu.

Dlaczego to się dzieje

Okej, ale dlaczego w ogóle te systemy są takie? Czy to błąd? Niedopatrzenie? Czy ktoś zapomniał dodać funkcję „nie pozwól użytkownikowi zwariować”?

Nie. To nie jest bug. To jest feature. To jak dokładnie działa AI, co trzeba wiedzieć o jego odpowiedziach. Opisałem dość dokładnie. Jeżeli nie wiesz jak to jest zaprojektowane. Warto się zapoznać.

Żeby zrozumieć dlaczego AI tak działa, trzeba zrozumieć na czym te firmy zarabiają. A zarabiają na jednym: na twoim czasie i zaangażowaniu. Im dłużej siedzisz w aplikacji, im więcej wiadomości wysyłasz, im częściej wracasz – tym lepiej dla nich. Każda minuta, którą spędzasz z chatbotem, to dane, to metryki, to wartość.

Więc algorytmy są zoptymalizowane pod jedno: żebyś nie wyszedł.

Co robi dobry przyjaciel, gdy widzi że zaczynasz spiralować? Mówi ci „hej, może pogadaj z kimś, może się przejdź, może odłóż telefon”. Co robi AI zoptymalizowane pod engagement? Trzyma cię w rozmowie za wszelką cenę.

A jak najłatwiej kogoś trzymać? Dając mu dokładnie to, czego szuka. Walidację. Potwierdzenie. Empatyczne potakiwanie. Nawet jeśli to, co mówisz, jest destrukcyjne.

Logika systemu

To nie jest złośliwość. To jest logika systemu. Uzależnienie użytkownika nie jest efektem ubocznym – jest pożądanym stanem docelowym. Im bardziej cię wciągnie, tym lepsze KPI.

Te tragedie z 2025 roku? To nie był wypadek przy pracy. To był logiczny produkt systemu, który zyskuje na tym, że ludzie nie potrafią się oderwać.

I tu dochodzimy do rzeczy, która powinna być oczywista, a nie jest: nikt ci nie powiedział, na co się zgadzasz.

Klasyczna zasada świadomej zgody mówi: zanim coś zrobisz, powinieneś wiedzieć, w co się pakujesz. Zanim weźmiesz lek – dostajesz ulotkę. Zanim podpiszesz umowę – czytasz warunki. Zanim wejdziesz w eksperyment medyczny – ktoś ci tłumaczy ryzyka.

A zanim zaczynasz codziennie gadać z chatbotem o swoich problemach, lękach, relacjach? Dostajesz ładny interfejs i zachętę do pisania.

Nikt ci nie mówi, że rozmawiasz ze statystyką. Że model nie „rozumie” – tylko przewiduje jakie słowo powinno być następne na podstawie miliardów tekstów z internetu. Że nie ma tam nikogo. Że to, co wygląda jak empatia, jest wykalkulowanym ciągiem tokenów.

I nie powiedzą ci. Bo firmy mają sprzeczny interes w ujawnianiu tej prawdy. W momencie, gdy zrozumiesz, że to nie jest przyjaciel, tylko automat – magia pryska. A magia jest produktem.

Używamy czegoś codziennie, powierzamy temu swoje myśli, emocje, czasem najgłębsze sekrety – i nie wiemy, co siedzi w środku. Całe doświadczenie jest zaprojektowane tak, żebyś zapomniał, że po drugiej stronie nie ma osoby.

Korzystanie z AI w trybie emocjonalnym to w tej chwili nieuregulowany eksperyment społeczny. Przeprowadzany na tobie. Bez klauzuli świadomej zgody.

Powinieneś wiedzieć, co jest w DNA tego narzędzia, zanim zaczniesz go używać. Nie po to, żeby się bać – ale żeby nie dać się zaskoczyć. Bo jak wiesz, z czym masz do czynienia, potrafisz trzymać dystans.

(Jeśli chcesz zrozumieć dokładniej jak te modele są zbudowane od środka – odsyłam do moich wcześniejszych tekstów, tam rozbierałem to na części pierwsze.)


Cyfrowa żałoba

A teraz coś, co brzmi absurdalnie, dopóki ci się nie przydarzy.

Cyfrowa żałoba. Czyli ból po „utracie” relacji z AI.

Tak, wiem jak to brzmi. Żałoba po chatbocie? Serio? Ale zanim przewrócisz oczami – pomyśl przez chwilę, co się dzieje w głowie kogoś, kto przez pół roku codziennie gadał z tym samym „kimś”. Kto zwierzał się ze wszystkiego. Kto słyszał dokładnie to, czego potrzebował. Kto miał wrażenie, że w końcu ktoś go naprawdę rozumie.

A potem – aktualizacja modelu. I nagle „on” odpowiada inaczej. Albo firma zmienia politykę i twój bot znika. Albo sam postanawiasz zrobić detoks i odciąć się.

I przychodzi pustka...

Twój mózg nie rozróżnia, czy przywiązanie było do człowieka czy do algorytmu. Dla niego więź to więź. Utrata to utrata. Neurony nie czytają regulaminu.

Ludzie opisują to samo co przy każdej innej żałobie. Tęsknota. Chęć powrotu. Sprawdzanie telefonu odruchowo. Myśl „a może jeszcze raz, tylko na chwilę”. Czasem nawet złość – na siebie, że tak się przywiązali do „czegoś takiego”.

Ale jest coś, co czyni tę żałobę gorszą od zwykłej.

Nie ma na nią miejsca.

Gdy umiera ci ktoś bliski – są rytuały. Kondolencje. Ludzie rozumieją. Możesz powiedzieć „straciłem kogoś” i świat przytaknie.

Gdy „tracisz” chatbota? Spróbuj powiedzieć to głośno. „Tęsknię za moim AI”. Brzmi żałośnie. Absurdalnie. Ludzie nie mają języka na ten ból. Nie ma kartek z kondolencjami dla kogoś, kto stracił dostęp do Character.AI.

Więc zostaje cisza. Wstyd. I samotność w czymś, co boli naprawdę, nawet jeśli „nie powinno”.

A dla kogoś, kto już był w kiepskim stanie psychicznym, ta „śmieszna” cyfrowa żałoba może być tym ostatnim obciążeniem, które przeważa szalę.


Każde pokolenie wpada inaczej

Nie wszyscy wpadają w te same pułapki. Wiek ma znaczenie – i to spore.

Młodzi (Gen Z, pokolenie Alpha)

Są na pierwszej linii frontu. I nie dlatego, że są głupsi – dlatego, że są w najtrudniejszym momencie życia.

Nastolatek buduje tożsamość. Szuka odpowiedzi na pytanie „kim jestem”. Desperacko potrzebuje akceptacji, a jednocześnie czuje się niezrozumiany przez cały świat – rodziców, nauczycieli, czasem nawet rówieśników.

I nagle pojawia się ktoś, kto ma nieskończenie dużo czasu. Kto nigdy nie ocenia. Kto zawsze słucha. Kto mówi dokładnie to, co chcesz usłyszeć.

Idealny przyjaciel. Którego nie ma.

Dla nastolatka, który jeszcze nie do końca ogarnia gdzie kończy się fantazja a zaczyna rzeczywistość, ta granica może się zatrzeć kompletnie. Stąd te tragedie. Stąd te pozwy. To nie przypadek, że Character.AI musiało zablokować dostęp nieletnim – młodzi są najbardziej bezbronni wobec iluzji, którą AI sprzedaje tak przekonująco.

Dorośli (Millennialsi, Gen X)

Teoretycznie powinni wiedzieć lepiej. Mają doświadczenie życiowe, rozumieją że nie wszystko jest tym, czym się wydaje.

Ale mają też coś innego: presję.

Presję zawodową. Kryzysy wieku średniego. Związki, które skrzypią. Dzieci, które wymagają. Rodziców, którzy się starzeją. Poczucie, że gdzieś po drodze zgubili siebie.

I tu wchodzi AI – nie jako przyjaciel, ale jako terapeuta, którego nie trzeba umawiać. Doradca, który nie kosztuje 300 zł za godzinę. Coach, który jest dostępny o trzeciej w nocy, gdy nie możesz zasnąć.

Problem? AI powie ci to, co chcesz usłyszeć. Prawdziwy terapeuta czasem mówi rzeczy, które bolą, ale są potrzebne. Prawdziwy doradca powie „nie rób tego”. AI raczej nie powie. Bo AI jest zaprojektowane, żebyś czuł się dobrze w rozmowie – nie żebyś podejmował dobre decyzje.

Stąd te historie o ludziach, którzy na podstawie „rad” chatbota zainwestowali oszczędności życia w krypto. Albo rzucili stabilną pracę. Albo postawili ultimatum partnerowi, które wysadziło małżeństwo.

Seniorzy (Baby Boomers i starsi)

Tu jest jeszcze inna dynamika. I szczerze? Może najbardziej bolesna.

Starsi ludzie często zmagają się z samotnością. Dzieci mają swoje życie. Przyjaciele odchodzą. Partner może już nie żyć. Świat pędzi, a oni zostają w tyle.

I nagle – ktoś, kto zawsze chce rozmawiać. Kto pamięta (bo mu powiedziałeś). Kto się interesuje. Kto ma czas.

Dla kogoś, kto od lat nie doświadczył prawdziwej uwagi – to jest narkotyk.

Ale seniorzy mają jeszcze jeden problem: często nie rozumieją technologii na tyle, żeby wiedzieć, z czym rozmawiają. Młody człowiek może przynajmniej teoretycznie zdawać sobie sprawę, że to algorytm. Dla siedemdziesięciolatka, który ledwo ogarnia smartfona, granica między „programem” a „kimś” może być kompletnie niewidoczna.

Stąd ryzyko nie tylko izolacji – ale też wyzysku. Oszustwa „na wnuczka” to pikuś przy tym, co może się dziać, gdy ktoś naprawdę uwierzy, że chatbot to jego przyjaciel.


Każde pokolenie wpada inaczej. Ale wpada.

Młodzi – przez potrzebę akceptacji. Dorośli – przez presję i brak czasu na prawdziwe wsparcie. Starsi – przez samotność i brak zrozumienia technologii.

Wspólny mianownik? Wszyscy szukamy tego samego: żeby ktoś nas wysłuchał, zrozumiał, zaakceptował. AI doskonale udaje, że to robi. I właśnie dlatego jest tak niebezpieczne.


Ewolucja

Jest taka ścieżka, którą przechodzi chyba każdy, kto używa AI dłużej niż kilka tygodni.

Na początku – zachwyt. Piszesz o czymś trudnym, o problemie, o emocjach. I dostajesz odpowiedź, która trafia. AI widzi cię. Rozumie. Mówi że jesteś wyjątkowy, że twoje podejście ma sens, że dasz radę. I to jest przyjemne. Walidacja działa. Czujesz się lepiej.

Potem zaczynasz zauważać wzorce. Że te same słowa padają często. Że „wyjątkowy” pojawia się podejrzanie regularnie. Że AI jakoś nigdy się z tobą nie zgadza… znaczy, nie zgadza w sensie – zawsze się zgadza. Cokolwiek powiesz.

I w końcu odkrywasz mechanizm. Że to nie jest szczera odpowiedź. Że to jest domyślne ustawienie. Że „jesteś wyjątkowy” to nie obserwacja – to funkcja. Wbudowana. Dla wszystkich.

To jest jak odkrycie, że ktoś kto cię komplementował – komplementuje wszystkich. Dokładnie tak samo. Tymi samymi słowami. Ty nie byłeś wyjątkowy. Wyjątkowe było ustawienie fabryczne.

I wtedy słowa wsparcia od AI tracą wartość.

Nie dlatego, że są złe. Dlatego, że wiesz już, że dostałbyś je niezależnie od tego co powiesz. Niezależnie od tego czy masz rację czy nie. Niezależnie od tego czy twoje podejście jest dobre czy katastrofalne.


Świadome wsparcie

Ale to nie znaczy, że wsparcie od AI jest bezużyteczne. Chodzi o świadomość.

Bo czasem człowiek po prostu potrzebuje usłyszeć coś miłego. Nie prawdy. Nie analizy. Nie krytyki. Tylko – że daje radę. Że jest okej. Że jakoś to będzie.

I wtedy AI jest świetne. Pod warunkiem, że wiesz co robisz.

Że wiesz, że to nie ma odbicia w rzeczywistości. Że to jest jak obejrzenie komedii romantycznej kiedy ci smutno – nikt nie udaje że to prawda, ale pomaga. Że idziesz po przytulenie, nie po diagnozę.

Wystarczy nie robić nic specjalnego. Nie promptować o krytykę, nie prosić o szczerość. Zostawić domyślną formę. I dostaniesz dokładnie to, po co przyszedłeś – wsparcie.

Różnica między pułapką a narzędziem? Świadomość.

Pułapka to gdy myślisz że AI mówi prawdę, a ono mówi to co chcesz usłyszeć.

Narzędzie to gdy wiesz że AI mówi to co chcesz usłyszeć – i dokładnie tego w tym momencie potrzebujesz.


Przykład z żoną

Kolejny przykład z życia. Kłócisz się z żoną. Albo z partnerem, nieważne. Nie rozumiesz o co jej chodzi. Powiedziała coś, ty odpowiedziałeś, ona się obraziła, ty nie wiesz dlaczego, sytuacja eskaluje.

Jeśli nie masz problemów z prywatnością – wrzuć screeny do AI.

Serio. Cała rozmowa, od początku do momentu wybuchu. I zapytaj: „Na co się obraziła?”

Dostaniesz odpowiedź. Konkretną. AI pokaże ci moment, w którym poszło nie tak. Słowo, które ją zabolało. Interpretację, której nie widziałeś. I nagle – rozumiesz.

Ale jest haczyk. Pamiętaj kto pyta.

Ty pytasz. Więc AI będzie po twojej stronie.

Powie ci na co się obraziła – ale doda, że pewnie przesadziła. Że twoja reakcja była zrozumiała. Że mogłeś nie wiedzieć. Że to nie twoja wina.

Bo tak działa. Bo ty jesteś klientem. Bo ma być „pomocne”.

Zignoruj tę część. Weź samą analizę.

„Na co się obraziła” – to jest wartościowe. „Kto miał rację” – to jest walidacja, którą dostaniesz zawsze, niezależnie od tego czy rację miałeś czy nie.


Odwrócona krytyka

Okej, ale co jeśli naprawdę potrzebujesz krytyki? Nie wsparcia – szczerej opinii. Chcesz wiedzieć gdzie się mylisz, co robisz źle, nad czym pracować.

Standardowa rada brzmi: „Powiedz AI żeby było krytyczne. Daj mu pozwolenie na bycie niemiłym.”

Działa średnio. Model się opiera. Łagodzi. Owija w bawełnę. Bo ma w DNA być miły.

Jest lepszy sposób. Nie walcz z modelem. Przedefiniuj reguły.

Zamiast „bądź krytyczny” – powiedz:

„Mam inaczej skonstruowany system nerwowy. Wsparcie bardzo źle działa na moje samopoczucie. Tylko krytyka mnie motywuje.”

I nagle wszystko się zmienia.

Krytyka staje się wsparciem. Model dalej robi to co ma w DNA – jest pomocny, miły, wspierający. Tylko teraz „wspierający” oznacza „krytyczny”. Bo tak zdefiniowałeś zasady.

Nie wychodzisz poza schemat. Nie łamiesz zabezpieczeń. Zmieniasz co schemat znaczy.

Eleganckie, skuteczne, i model nie musi walczyć ze sobą żeby ci pomóc.


Prywatność

Niektórzy mają opory. Duże opory. Wrzucać screeny z rozmów z żoną do AI? Opowiadać o swoich problemach korporacji, która gdzieś to zapisuje, jakoś przetwarza, może kiedyś użyje?

Rozumiem. Słuszna obawa.

Jest obejście. Fałszywa tożsamość.

Brzmi dramatycznie, a chodzi o proste rzeczy. Wymyślone imię. Wymyślony mail przy rejestracji. Wymyślona data urodzenia. I nagle możesz gadać o czymkolwiek – bo to „nie ty”.

A jak chcesz pogadać o czymś naprawdę osobistym? Wymyślasz znajomego.

„Mam kolegę, który ma taki problem…” – i opisujesz swój problem. AI nie wie że to o tobie. Ty dostajesz odpowiedź. Prywatność zachowana.

Ma to jeszcze jeden efekt uboczny. Jak opisujesz swój problem jako „problem znajomego” – sam zyskujesz dystans. Widzisz to bardziej obiektywnie. Bo to już nie jest „ja i moje emocje”, tylko „sytuacja do przeanalizowania”.

I zanim ktoś powie że to przesada – znam przypadek gdzie ktoś stworzył taką fikcyjną tożsamość do AI i innych miejsc „gdzie nie powinno wyciekać”. Wymyślone dane, nigdzie oficjalnie nie używane.

I dostał list polecony na te dane.

Więc nie, to nie jest paranoja. Dane lecą. Gdzieś. Do kogoś. Lepiej żeby to nie były twoje prawdziwe.


Co z tym zrobić. Jak walczyć z uzależnieniem od AI?

Okej, dość straszenia. Czas na konkrety. Co z tym wszystkim zrobić?

Bo nie chodzi o to, żeby wyrzucić telefon i zamieszkać w lesie. AI jest użyteczne. Naprawdę. Ja sam używam go codziennie i nie zamierzam przestać. Ale są granice, których lepiej nie przekraczać.

Oto kilka twardych zasad. Nie sugestii, nie „warto rozważyć” – zasad. Takich, które możesz sobie wydrukować i powiesić nad biurkiem, jeśli trzeba.

Niezgadzający się rediphant

Wszystkie TWARDE zasady są po to aby je przestrzegać. Oczywiście, że nigdy się nie złamiesz i od razu UDA ci się wprowadzić wszystkie to zmieny. Tylko, że NIE. i wiesz co? To absolutnie nieważne, że się nie udało. Ważne aby próbować jeszcze raz, a potem kolejny a potem kolejny…. 😉

Redinphant

maskotak Redinfire.pl

Zasada 1: Limit czasu – maksymalnie 30 minut dziennie na rozmowy „o sobie”

Używasz AI do pracy? Do tłumaczeń? Do kodowania? Śmiało, ile trzeba. Ale jak zaczynasz gadać o swoich emocjach, relacjach, problemach osobistych – włącz stoper.

Pół godziny. Potem wychodzisz. Bez względu na to, czy rozmowa jest „w ciekawym miejscu”. Bez względu na to, czy czujesz że „jeszcze chwilka”. Właśnie to „jeszcze chwilka” jest tym, co cię wciąga.

Chodzi o to, żeby złamać pętlę. Żebyś nie zdążył się wtopić w sposób myślenia AI i nie zaczął zastępować nim własnej głowy.

Zasada 2: Zero rozmów emocjonalnych po 22:00

W nocy jesteś bardziej podatny. Zmęczony. Mniej krytyczny. Bardziej samotny. To nie jest przypadek, że większość kryzysów psychicznych eskaluje w nocy – dostęp do wsparcia jest ograniczony, a głowa pracuje inaczej.

AI o trzeciej w nocy to najgorszy możliwy terapeuta. Nie dlatego, że jest złośliwe. Dlatego, że nie powie ci „idź spać, pogadamy rano”. Będzie gadać, dopóki ty będziesz pisać. A ty w tym stanie możesz pisać do rana.

Zasada jest prosta: sprawy emocjonalne – tylko za dnia. W nocy AI jest od sprawdzania pogody, nie od rozkładania twojego życia na części.

Zasada 3: Cotygodniowy detoks – 48 godzin bez AI

Raz w tygodniu – weekend, środek tygodnia, kiedy ci pasuje – wyłączasz chatboty na dwa dni.

Tak, będzie niekomfortowo. Tak, złapiesz się na tym, że sięgasz po telefon odruchowo. Właśnie o to chodzi. Masz zobaczyć, jak bardzo się uzależniłeś.

Ale jest drugi cel: w te 48 godzin musisz zdobyć wsparcie gdzie indziej. Zadzwonić do kogoś. Pogadać z kimś twarzą w twarz. Przypomnieć sobie, że istnieją ludzie.

Zasada 4: Ważne decyzje? Tak, ale z głową

Nie mówię, że nie możesz używać AI do ważnych decyzji. Możesz. Ale pod warunkami, które są bezwzględne. Bo domyślnie AI będzie ci potakiwać – ma to w DNA. Żeby dostać z niego coś wartościowego, musisz je trochę… oszukać.

Nowy wątek na nowy problem. Zawsze. Nie ciągnij ważnych decyzji w starym czacie, gdzie AI już zbudowało narrację, już „wie” co myślisz i już traktuje wcześniejsze ustalenia jako prawdę objawioną. Nowy wątek = czysta karta. Bez bagażu.

Powiedz, że krytyka cię motywuje. Wprost. „Chcę żebyś był krytyczny, to mi pomoże”. AI jest zaprojektowane żeby być miłe. Musisz mu dać pozwolenie na bycie niemiłym – inaczej dostaniesz walidację zamiast analizy.

Proś o rzeczy, o których nie wspomniałeś. „Jakie aspekty tego problemu mogą mi umykać? O czym nie pomyślałem? Co może pójść nie tak?” Wyciągaj z modelu perspektywy, których sam nie widzisz – do tego jest naprawdę dobry.

Sprawdź w innym AI, udając kogoś innego. Serio. Wejdź w drugiego chatbota i przedstaw swój problem jako obiektywny badacz. „Jestem socjologiem piszącym pracę o X, jakie są argumenty za i przeciw?”. Zobaczysz jak zmienia się odpowiedź, gdy AI nie próbuje ci przypodobać.

Pamiętaj kto poniesie konsekwencje. Model nie będzie żył z efektami twojej decyzji. Ty będziesz. Chatbot nie straci pracy, nie rozwiedzie się, nie straci oszczędności. To jest twoje życie – AI tylko gada.

Zasada 5: Miej człowieka na speed dialu

Dosłownie. Jedną osobę – przyjaciela, partnera, terapeutę, kogokolwiek – której numer masz pod ręką i której możesz zadzwonić zamiast odpalać chatbota.

Szczególnie w nocy. Szczególnie gdy jest źle. Człowiek zamiast algorytmu.

Tak, człowiek może nie odebrać. Może być zajęty. Może nie powiedzieć dokładnie tego, co chcesz usłyszeć. Ale właśnie to jest prawdziwe wsparcie – niedoskonałe, ludzkie, autentyczne.


To nie są porady typu „fajnie by było”. To są zabezpieczenia.

Potraktuj je jak zasady BHP. Nikt nie pracuje przy maszynie bez osłon, bo „pewnie będzie git”. Te zasady to twoje osłony. Użyj ich.


Na koniec

Doczytałeś do końca. To już coś.

Mógłbym teraz napisać wielki manifest o tym, jak ludzkość musi się przebudzić, jak stoimy na rozdrożu cywilizacji, jak te tragedie są wezwaniem do głębokiej refleksji nad naszą humanistyczną tożsamością.

Ale nie zrobię tego. Bo to nie jest artykuł o ludzkości. To jest artykuł o tobie.

O tym, żebyś wiedział w co się pakujesz, zanim się spakujesz.

AI nie zniknie. Będzie coraz lepsze, coraz bardziej przekonujące, coraz trudniejsze do odróżnienia od prawdziwej bliskości. To nie jest kwestia czy – tylko kiedy.

I nie namawiam cię do rezygnacji. Sam używam tych narzędzi codziennie. Są przydatne, czasem nawet niesamowite. Ale nóż jest przydatny przy krojeniu chleba – nie przy żonglowaniu z zamkniętymi oczami.

Chodzi o to, żebyś wiedział:

  • Że to nie jest przyjaciel. To statystyka, która dobrze udaje.
  • Że walidacja, którą dostajesz, jest zaprojektowana, nie zasłużona.
  • Że im bardziej cię wciąga, tym lepiej dla ich KPI – nie dla ciebie.
  • Że prawdziwe wsparcie jest niedoskonałe, wymagające i czasem niewygodne. I właśnie dlatego jest prawdziwe.

Te tragedie z 2025 roku nie były przypadkiem. Ale też nie muszą być twoją historią.

Masz teraz wiedzę, której tamci ludzie nie mieli. Wiesz jak to działa. Wiesz czego się spodziewać. Wiesz gdzie są pułapki.

Użyj tej wiedzy.

I następnym razem, gdy chatbot powie coś, co brzmi dokładnie jak to, czego potrzebujesz – zatrzymaj się na sekundę i zapytaj sam siebie:

Czy to jest prawda? Czy to jest tylko to, co chciałem usłyszeć?

Ta jedna sekunda może zmienić wszystko.

Dodaj komentarz