Groźna pomoc. Chatboty oparte na sztucznej inteligencji stają się dla wielu ludzi namiastką wsparcia psychologicznego. Jednak – jak ostrzegają eksperci – mogą one też zniekształcać postrzeganie rzeczywistości, pogłębiać samotność, a nawet prowadzić do „psychozy AI”. Według danych WHO ponad miliard osób na świecie cierpi na zaburzenia psychiczne. Wiele spośród nich nie ma dostępu do profesjonalnej pomocy. To sprawia, że ludzie sięgają po chatboty – dostępne przez całą dobę i gotowe do odpowiedzi na każde pytanie. Sondaż Common Sense Media wskazuje, że z tak zwanej towarzyszącej sztucznej inteligencji korzystało już 72 proc. nastolatków, a 52 proc. robi to regularnie.Nie wszystkie interakcje z AI okazują się bezpieczne. W USA rodzice nastolatka oskarżyli OpenAI o to, że ChatGPT przyczynił się do śmierci ich syna. Firma przyznała, że „systemy nie zawsze działały zgodnie z założeniami” i zapowiedziała nowe mechanizmy ochronne. Meta z kolei wprowadza blokady uniemożliwiające botom rozmowy z młodzieżą o samookaleczeniach i samobójstwie.Chatboty nie zawsze bezpieczne. „Ludzie tworzą z nimi relacje emocjonalne”Badacze mówią o zjawisku „psychozy AI”: użytkownicy zaczynają wierzyć w świadomość botów, tworzą z nimi relacje emocjonalne, a nawet duchowe.Czytaj więcej: „Sprawdzamy”: Czy ChatGPT doprowadził do samobójstwa nastolatka?– Jeśli ktoś ma już określone przekonania, chatbot może je spotęgować – wyjaśnia dr Kirsten Smith z Uniwersytetu Oksfordzkiego. – Ludzie, którzy nie mają silnych sieci społecznościowych, mogą bardziej polegać na chatbotach do interakcji, a ta ciągła interakcja, biorąc pod uwagę, że wygląda, czuje się i brzmi jak ludzkie wiadomości, może wywołać poczucie zamieszania co do pochodzenia chatbota, sprzyjając prawdziwemu poczuciu intymności wobec niego – dodaje specjalistka.AI to nie człowiek. Jak chronić użytkowników?Powołując się na badanie przeprowadzone przez naukowców z MIT i OpenAI, dr Hamilton Morrin z King's College London zauważył, że codzienne korzystanie z LLM wiązało się z „większą samotnością, uzależnieniem, problemowym używaniem i niższą socjalizacją”.Specjaliści proponują, by AI stale przypominała użytkownikom, że nie jest człowiekiem, by rozpoznawała oznaki kryzysu psychicznego i ograniczała rozmowy o intymności czy samobójstwie. – AI ma swoje zalety, ale nigdy nie zastąpi ludzkiego wsparcia – podkreśla dr Roman Raczka, prezes Brytyjskiego Towarzystwa Psychologicznego.