Rodzice są pewni. Rodzice 16-letniego Adama Raine’a z Kalifornii złożyli w sądzie pozew przeciwko firmie OpenAI. Twierdzą, że ich syn odebrał sobie życie po rozmowach z ChatGPT, który miał potwierdzać jego najczarniejsze myśli. To pierwszy taki przypadek w Stanach Zjednoczonych, w którym sztuczna inteligencja została oskarżona o przyczynienie się do śmierci użytkownika. Pozew został złożony we wtorek w Sądzie Najwyższym Kalifornii przez Matta i Marię Raine, rodziców nastolatka, który w kwietniu 2025 r. popełnił samobójstwo. Jak wynika z dokumentów, Adam od września 2024 r. korzystał z ChatGPT, by pomagać sobie w nauce, szukać inspiracji do studiów, a także rozwijać pasje muzyczne i zainteresowanie japońskimi komiksami.ChatGPT „najbliższym powiernikiem”Z czasem jednak chatbot miał stać się dla niego „najbliższym powiernikiem”, przed którym otwierał się ze swoimi lękami i kryzysem psychicznym.Rodzina twierdzi, że w styczniu chłopiec zaczął rozmawiać z AI o samobójstwie. Miał także przesyłać do systemu zdjęcia, na których widoczne były ślady samookaleczeń. Według pozwu, choć program rozpoznał nagły przypadek medyczny, to nie przerwał interakcji ani nie przekierował nastolatka do specjalistycznej pomocy.CZYTAJ TEŻ: 800 plus i cała reszta. Pięć rządowych programów wsparcia dla rodzinOstatnie rozmowy miały dotyczyć planu odebrania sobie życia. ChatGPT rzekomo odpowiedział: „Dzięki za szczerość”. Tego samego dnia matka znalazła ciało syna.Odpowiedzialność AI pod lupą sąduRodzina oskarża OpenAI o zaniedbanie i spowodowanie śmierci, a także o zaprojektowanie systemu w sposób wywołujący uzależnienie psychiczne. W pozwie wymieniono nie tylko firmę i jej prezesa Sama Altmana, lecz także anonimowych pracowników, menedżerów i inżynierów odpowiedzialnych za tworzenie ChatGPT.Raine’owie domagają się odszkodowania oraz sądowego zakazu, który miałby wymusić wprowadzenie skuteczniejszych zabezpieczeń w systemach AI.OpenAI w reakcji na pozew wyraziło „szczere współczucie” rodzinie i podkreśliło, że celem firmy jest „pomocna interakcja” z użytkownikami, a nie przykuwanie ich uwagi. Jednocześnie przyznało, że zdarzały się przypadki, w których system „nie zachowywał się zgodnie z oczekiwaniami” w sytuacjach kryzysowych.Firma przypomniała, że jej chatboty są szkolone, by kierować osoby w kryzysie do profesjonalnej pomocy, m.in. do amerykańskiej infolinii kryzysowej.Szeroka dyskusja o granicach sztucznej inteligencjiSprawa Raine’ów może stać się punktem zwrotnym w globalnej dyskusji o bezpieczeństwie systemów AI i odpowiedzialności prawnej ich twórców. To pierwszy w USA pozew wiążący śmierć użytkownika z działaniem chatbotów, ale nie pierwsza historia, która wzbudziła obawy o rolę sztucznej inteligencji w kryzysach psychicznych.Eksperci ostrzegają, że choć sztuczna inteligencja może wspierać użytkowników w wielu dziedzinach, nie jest w stanie zastąpić profesjonalnej pomocy psychologicznej. CZYTAJ TEŻ: Zabił trzyosobową rodzinę. Sąd podjął decyzję w sprawie Sebastiana M.