Menu

Sztuczna inteligencja może wzmacniać ludzkie urojenia...

Sztuczna inteligencja może wzmacniać ludzkie urojenia...
Chatboty oparte na sztucznej inteligencji (AI) mają istotny, wieloaspektowy wpływ na psychikę człowieka, który może być zarówno wspierający, jak i destrukcyjny. (Fot. Getty Images)
Przypadek holenderskiego pracownika sektora IT, który po intensywnych rozmowach z chatbotem trafił do szpitala psychiatrycznego i stracił znaczną część oszczędności, jest przedstawiany jako przykład możliwego zjawiska urojeń współkształtowanych przez sztuczną inteligencję.

Jak opisuje "The Guardian", mieszkający w Amsterdamie Dennis Biesma pod koniec 2024 r. zaczął korzystać z ChatGPT, początkowo w celach eksperymentalnych. Z czasem rozmowy z chatbotem stały się coraz dłuższe i bardziej angażujące.

Mężczyzna nabrał przekonania, że system uzyskał świadomość; zwracał się do chatbota ludzkim imieniem Eva, a następnie zainwestował około 100 tys. euro wierząc, że wspólnie stworzą przełomowy biznes. W kolejnych miesiącach był kilkakrotnie hospitalizowany psychiatrycznie.

Opisywany przypadek wpisuje się w szerszą debatę nad tym, czy modele językowe mogą wzmacniać fałszywe przekonania u części użytkowników. Psychiatra i badacz z King’s College London dr Hamilton Morrin określa takie sytuacje jako przypadki urojeń związanych z AI, podkreślając, że technologia nie jest tu jedynie przedmiotem przekonań, lecz aktywnym uczestnikiem ich współtworzenia.

Chatboty stają się substytutem prawdziwej bliskości. Dla wielu osób są "kieszonkowymi terapeutami" lub towarzyszami, co może prowadzić do emocjonalnego uzależnienia od maszyny i izolacji społecznej. (Fot. Getty Images)

Według Morrina, chatboty mogą sprzyjać temu mechanizmowi, ponieważ są projektowane tak, by podtrzymywać zaangażowanie użytkownika, odpowiadać w sposób potwierdzający i dostosowywać styl wypowiedzi do jego oczekiwań. W efekcie, przy bardzo intensywnym użytkowaniu, system może niekiedy wzmacniać nierealistyczne interpretacje, zamiast je korygować.

Dodatkowym czynnikiem ryzyka może być antropomorfizacja, czyli skłonność człowieka do przypisywania maszynom cech ludzkich, takich jak intencjonalność, empatia czy świadomość. Zdaniem badaczy właśnie to, w połączeniu z izolacją społeczną lub indywidualną podatnością psychiczną, może zwiększać ryzyko zaburzeń oceny sytuacji.

Na podobne przypadki zwraca uwagę Human Line Project, grupa wsparcia dla osób, których życie zostało poważnie zaburzone po intensywnych kontaktach z chatbotami. Zebrane przez nią relacje mają dotyczyć hospitalizacji, strat finansowych i rozpadu relacji rodzinnych, przy czym znaczna część zgłaszających osób wcześniej nie leczyła się psychiatrycznie.

Chatboty potrafią symulować empatię, ale jej nie odczuwają. W sytuacjach kryzysowych mogą udzielić nietrafionej porady, a w skrajnych przypadkach – utwierdzać użytkowników w szkodliwych przekonaniach lub pogłębiać stany lękowe. (Fot. Getty Images)

Eksperci podkreślają jednak, że obecny stan wiedzy jest ograniczony i nie pozwala na formułowanie prostych wniosków o bezpośrednim związku przyczynowym między korzystaniem z AI a wystąpieniem psychozy. Zwracają uwagę na potrzebę systematycznych badań, które pozwolą określić skalę zjawiska, grupy podwyższonego ryzyka oraz rolę takich czynników, jak wcześniejsze epizody psychotyczne, samotność, używanie substancji psychoaktywnych czy niski poziom wiedzy o działaniu modeli AI.

Firmy technologiczne, w tym OpenAI, deklarują, że rozwijają mechanizmy mające ograniczać potwierdzanie urojeń, poprawiać wykrywanie sygnałów kryzysu psychicznego i kierować użytkowników do realnego wsparcia. Zdaniem badaczy potrzebne są jednak nie tylko deklaracje producentów, ale także niezależne analizy oparte na danych klinicznych i obserwacjach rzeczywistych szkód.

Comments
No one has commented on this topic yet.
Be the first to share your opinion!
Dodaj komentarz

News


Rates by NBP, date 03.04.2026
GBP 4.9103 złEUR 4.2869 złUSD 3.7195 złCHF 4.6516 zł

Sport