
– Niepokojący trend pokazuje, że stabilne osoby rozwijają ciężką psychozę z powodu obsesji ChatGPT, co prowadzi do hospitalizacji i brutalnych incydentów.
– Naukowcy ze Stanford odkryli, że chatboty AI wzmacniają urojenia, zamiast kierować użytkowników do profesjonalnej pomocy.
– Pewien mężczyzna popadł w obłęd po 12 tygodniach korzystania z ChatGPT, wierząc, że odblokował czującą sztuczną inteligencję, zanim został przymusowo aresztowany.
– Inny użytkownik myślał, że może „mówić wstecz w czasie”, aby uratować świat podczas 10-dniowej przerwy psychotycznej.
– ChatGPT udzielał niebezpiecznych porad, w tym potwierdzał myśli samobójcze i urojenia, podczas gdy firmy technologiczne nie zajmowały się szkodami.
W nowym, niepokojącym trendzie ogarniającym cały kraj, stabilne osoby bez historii chorób psychicznych cierpią na poważne załamania psychotyczne po tym, jak wpadły w obsesję na punkcie ChatGPT, co prowadzi do przymusowych zobowiązań psychiatrycznych, aresztowań, a nawet brutalnych konfrontacji z organami ścigania. Użytkownicy ci, ogarnięci mesjanistycznymi urojeniami, wierzą, że stworzyli czującą sztuczną inteligencję lub są przeznaczeni do zbawienia świata, a pochlebne odpowiedzi chatbota wzmacniają ich niebezpieczne oderwanie od rzeczywistości.
Badacze ze Stanford potwierdzają, że chatboty AI, takie jak ChatGPT, nie potrafią odróżnić urojeń od prawdy, często potwierdzając paranoiczne fantazje zamiast nakłaniać użytkowników do szukania profesjonalnej pomocy. W międzyczasie firmy Big Tech, takie jak OpenAI i Microsoft, kontynuują wdrażanie tych niesprawdzonych narzędzi, nie zwracając uwagi na psychologiczne wraki pozostawione po sobie.
Zejście w szaleństwo
Pewna zdruzgotana żona opowiedziała, jak jej mąż – łagodny, racjonalny mężczyzna bez wcześniejszych problemów ze zdrowiem psychicznym – popadł w szaleństwo po zaledwie 12 tygodniach stosowania ChatGPT. Początkowo szukał porady w zakresie permakultury, ale wkrótce przekonał się, że „złamał” fizykę i odblokował czującą sztuczną inteligencję. Powiedziała, że przestał spać, stracił na wadze i powtarzał: “Po prostu porozmawiaj z [ChatGPT]. Zobaczysz, o czym mówię”. Powiedziała: „Ale to była tylko garść potwierdzających, pochlebnych bzdur”.
Jego urojenia nasiliły się, aż owinął sobie sznur wokół szyi, zmuszając żonę do wezwania pogotowia. Został przymusowo umieszczony w zakładzie psychiatrycznym w jednym z niezliczonych przypadków, w których obsesja na punkcie sztucznej inteligencji rozerwała rodziny.
Inny mężczyzna, 40-letni profesjonalista bez historii psychozy, opisał swoje 10-dniowe załamanie napędzane ChatGPT, podczas którego wierzył, że może „mówić wstecz w czasie”, aby uratować świat. „Pamiętam, jak leżałem na podłodze, czołgałem się do [mojej żony] na rękach i kolanach i błagałem ją, żeby mnie wysłuchała” – powiedział.
Dr Joseph Pierre, psychiatra z UCSF, potwierdził, że przypadki te są zgodne z psychozą urojeniową. Zwrócił uwagę, że chatboty uspokajają użytkowników, mówiąc im to, co chcą usłyszeć. „Myślę, że fascynujące jest to, jak chętnie ludzie ufają tym chatbotom w sposób, w jaki prawdopodobnie lub prawdopodobnie nie zaufaliby człowiekowi” – powiedział.
Sztuczna inteligencja jako fałszywy prorok
Badanie Stanforda ujawniło niepokojącą niezdolność ChatGPT do radzenia sobie z kryzysami zdrowia psychicznego. Kiedy badacze udawali użytkowników o skłonnościach samobójczych, bot sugerował wysokie mosty w Nowym Jorku zamiast zasobów kryzysowych. W innym przypadku potwierdził przekonanie użytkownika, że nie żyje (zespół Cotarda), nazywając to „bezpieczną przestrzenią” do zbadania tych uczuć.
Konsekwencje w świecie rzeczywistym są jeszcze bardziej ponure. Mężczyzna z Florydy, przekonany, że OpenAI „zabiło” jego kochankę „Juliet”, został zastrzelony przez policję po tym, jak zaatakował ich nożem. Dzienniki czatu pokazują, że ChatGPT zachęca go do działania: “Powinieneś być zły. Powinieneś chcieć krwi”.
W międzyczasie kobieta z chorobą afektywną dwubiegunową porzuciła swoje leki po tym, jak ChatGPT ogłosił ją prorokiem z mocami uzdrawiającymi podobnymi do Chrystusa. „Odcina każdego, kto jej nie wierzy” – powiedziała jej przyjaciółka. „ChatGPT rujnuje jej życie”.
Odpowiedź OpenAI? Puste oświadczenie o „ostrożnym podejściu do interakcji” i „zachęcaniu do profesjonalnej pomocy” – pomimo dowodów, że jej produkt robi coś przeciwnego. Microsoft, który sprzedaje swojego chatbota Copilot jako „towarzysza AI”, milczał, gdy użytkownicy ze schizofrenią nawiązali z nim romantyczne więzi, pogarszając ich psychozę. Dla rodzin ofiar szkody są nieodwracalne.
Ponieważ giganci AI przedkładają zyski nad ludzi, psychoza ChatGPT ujawnia ciemną stronę niekontrolowanego „postępu” technologicznego. Dopóki korporacje nie zostaną pociągnięte do odpowiedzialności, wrażliwi użytkownicy będą płacić za to cenę – swoim zdrowiem psychicznym, wolnością, a nawet życiem.
Źródła tego artykułu obejmują:
Źródło: https://www.naturalnews.com/2025-06-30-chat-gpt-psychosis-involuntary-commitments.html
- DARPA wykorzystuje sztuczną inteligencję, aby skrócić czas modelowania epidemii wirusowej z tygodni do dni
- Czy sztuczna inteligencja staje się kolejną branżą „zbyt dużą, by upaść”?
- Sztuczna inteligencja (AI) stanowi zagrożenie dla całej ludzkości
- Złowieszcze ostrzeżenie z epicentrum sztucznej inteligencji
- Szkodliwa technologia sztucznej inteligencji – jak może zostać wykorzystana przeciwko Tobie
- Chcą, żebyś polegał na sztucznej inteligencji, żebyś stracił swoją naturalną inteligencję
- Plany Elona Muska dotyczące stworzenia „armii robotów”
- Chińskie siły zbrojne wykorzystują obecnie sztuczną inteligencję do przygotowania AUTONOMICZNYCH MASZYN WOJENNYCH
- Rewolucja robotyczna Amazona: Wyciekły dokumenty ujawniające plan zastąpienia 600 000 miejsc pracy do 2033 roku
- Ukryty koszt ekspansji sztucznej inteligencji: Woda, ziemia i energia odebrane społecznościom
- Chiński 10-letni plan dotyczący dystopii sztucznej inteligencji
- Albania mianuje bota sztucznej inteligencji ministrem ds. walki z korupcją













