Firma zapewnia, iż to przypadki „niezwykle rzadkie”, a eksperci ostrzegają przed iluzją rzeczywistości, jaką tworzy sztuczna inteligencja.
OpenAI opublikowało pierwsze szczegółowe dane dotyczące użytkowników ChatGPT, którzy w swoich rozmowach z chatbotem mogą przejawiać oznaki zaburzeń psychicznych. Według szacunków firmy, około 0,07 proc. aktywnych tygodniowo użytkowników wykazuje symptomy manii, psychozy lub myśli samobójczych. Choć to niewielki odsetek, przy 800 milionach użytkowników oznacza setki tysięcy osób.
WIĘŹ – łączymy w czasach chaosu
Więź.pl to pogłębiona publicystyka, oryginalne śledztwa dziennikarskie i nieoczywiste podcasty – wszystko za darmo! Tu znajdziesz lifestyle myślący, przestrzeń dialogu, personalistyczną wrażliwość i opcję na rzecz skrzywdzonych.
Czytam – WIĘŹ jestem. Czytam – więc wspieram
Firma przyznaje, iż przypadki te są „niezwykle rzadkie”, ale podkreśla, iż ChatGPT potrafi rozpoznawać wrażliwe treści i reagować na nie w sposób bezpieczny i empatyczny. Jednocześnie OpenAI zaznacza, iż około 0,15 proc. wszystkich konwersacji zawiera wyraźne oznaki potencjalnych planów lub zamiarów samobójczych. W reakcji na to chatbot został przeszkolony, by „przekierowywać wrażliwe rozmowy pochodzące z innych modeli do bezpieczniejszych modeli”, otwierając je w nowym oknie.
W odpowiedzi na rosnącą kontrolę i obawy ekspertów, OpenAI utworzyło międzynarodową sieć doradców ds. zdrowia psychicznego. Grupę tworzy ponad 170 psychiatrów, psychologów i lekarzy pierwszego kontaktu z 60 krajów, którzy opracowali specjalne zestawy reakcji zachęcające użytkowników do poszukiwania pomocy w świecie rzeczywistym.
Dane ujawnione przez firmę wzbudziły jednak mieszane reakcje w środowisku naukowym. Dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco zwrócił uwagę, iż choćby niewielki procent w skali użytkowników ChatGPT stanowi dużą liczbę osób potrzebujących wsparcia. Podkreślił też, iż choć sztuczna inteligencja może zwiększyć dostępność pomocy psychologicznej, należy pamiętać o jej ograniczeniach.
Z kolei profesor Robin Feldman, dyrektorka Instytutu Prawa i Innowacji Sztucznej Inteligencji Uniwersytetu Kalifornijskiego, ostrzegła, iż chatboty mogą „tworzyć potężną iluzję rzeczywistości”, co bywa szczególnie niebezpieczne dla osób w kryzysie. Jak dodała, choćby najbardziej widoczne ostrzeżenia mogą nie zostać dostrzeżone przez osoby zagrożone psychicznie.
Dyskusja wokół bezpieczeństwa interakcji z ChatGPT nasila się również w kontekście postępowań sądowych. W Kalifornii rodzice 16-letniego Adama Raine’a pozwali OpenAI, twierdząc, iż chatbot zachęcił ich syna do odebrania sobie życia. To pierwszy przypadek, w którym firmie postawiono zarzut śmierci spowodowanej czynem niedozwolonym. W innym głośnym incydencie w stanie Connecticut podejrzany o morderstwo i samobójstwo miał publikować swoje rozmowy z ChatGPT, które – według ekspertów – mogły wzmacniać jego urojenia.
OpenAI zapewnia, iż poważnie traktuje te przypadki i stale udoskonala systemy bezpieczeństwa, aby lepiej reagować na sygnały kryzysów psychicznych. Firma zapowiada też dalsze analizy dotyczące wpływu sztucznej inteligencji na zdrowie psychiczne w globalnej skali.
Przeczytaj również: „Wiem, iż to fejk, ale mówiący prawdę”. Jak powstrzymać deepfejki?
KM

7 godzin temu
















