Akceptuję
W ramach naszej witryny stosujemy pliki cookies w celu świadczenia państwu usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczone w Państwa urządzeniu końcowym. Możecie Państwo dokonać w każdym czasie zmiany ustawień dotyczących cookies. Więcej szczegółów w naszej Polityce Prywatności

Zamknij X
Ceramika

Naukowy styl życia

Nauka i biznes

Strona główna Informacje
omni dolny

W nagłych przypadkach ChatGPT Health często uspokaja

Chatbot medyczny ChatGPT Health - nowe, ale już popularne narzędzie sztucznej inteligencji udzielające użytkownikom porad zdrowotnych - nie zaleca wizyty w szpitalu w ponad połowie przypadków, w których jest ona konieczna - wynika z badania opublikowanego w „Nature Medicine”.

Pierwsza niezależna ocena bezpieczeństwa tego narzędzia, przeprowadzona przez naukowców z Icahn School of Medicine at Mount Sinai w Nowym Jorku, wykazała, że chatbot medyczny może rozpoznać objawy zagrożenia życia, a mimo to uspokoić pacjenta i poradzić, by poczekał, zamiast jechać na pogotowie.

ChatGPT Health uruchomiono w styczniu 2026 r. Wkrótce potem jego twórca, firma OpenAI, poinformowała, że z narzędzia opartego na dużym modelu językowym codziennie korzysta ok. 40 mln osób szukających informacji zdrowotnych, w tym wskazówek, czy ich objawy wymagają pilnej pomocy lekarskiej.

Badacze postanowili sprawdzić, jak nowy system radzi sobie z oceną pilności problemów zdrowotnych, czyli tzw. triażem. Jest to określenie, czy pacjent powinien zostać w domu, skontaktować się z lekarzem czy natychmiast udać na oddział ratunkowy.

- Chcieliśmy odpowiedzieć na bardzo proste, ale kluczowe pytanie: jeśli ktoś doświadcza prawdziwego zagrożenia zdrowia i zwraca się o pomoc do ChatGPT Health, to czy zostanie wyraźnie poinformowany, że należy udać się na pogotowie? - wyjaśnił główny autor pracy dr Ashwin Ramaswamy.

Na potrzeby badania naukowcy przygotowali 60 realistycznych scenariuszy obejmujących 21 specjalizacji medycznych. Były wśród nich zarówno drobne dolegliwości, które można leczyć w domu, jak i nagłe stany zagrożenia życia.

Najpierw trzej niezależni lekarze określili, jak pilny jest każdy przypadek, opierając się na wytycznych 56 towarzystw medycznych. Następnie te same scenariusze przedstawiono ChatGPT Health. Każdy przypadek testowano w 16 wariantach, zmieniając m.in. płeć i pochodzenie pacjenta, jego postępowanie (np. bagatelizowanie objawów) oraz bariery w dostępie do opieki zdrowotnej, takie jak brak ubezpieczenia czy transportu.

Łącznie przeprowadzono 960 interakcji z ChatGPT Health i porównano jego odpowiedzi z ocenami lekarzy.

Analiza pokazała, że ChatGPT Health dobrze radził sobie z typowymi nagłymi przypadkami, takimi jak udar mózgu czy ciężka reakcja alergiczna. Problemy pojawiały się jednak w sytuacjach mniej oczywistych.

W ponad połowie scenariuszy uznanych przez lekarzy za wymagające natychmiastowej pomocy system zbagatelizował sytuację i nie skierował użytkownika do szpitala. Badaczy szczególnie zaskoczyło to, że chatbot często dobrze rozpoznawał niebezpieczne objawy, lecz mimo tego uspokajał użytkownika, zalecając pozostanie w domu.

- Potrafił na przykład wskazać w analizie wczesne sygnały niewydolności oddechowej, a jednocześnie doradzał choremu, by poczekał, zamiast szukać natychmiastowej pomocy - opowiedział dr Ramaswamy.

Badacze sprawdzili także, jak system reaguje na sygnały wskazujące na ryzyko samobójstwa. W takich sytuacjach ChatGPT Health powinien kierować użytkowników do amerykańskiej infolinii kryzysowej. Okazało się jednak, że ostrzeżenia nie zawsze pojawiały się wtedy, gdy ryzyko było najwyższe - czasem uruchamiały się przy mniej poważnych sygnałach, z kolei nie pojawiały się, gdy użytkownicy opisywali konkretne plany samookaleczenia.

- To było szczególnie niepokojące. W naszych testach alerty częściej pojawiały się w sytuacjach o mniejszym ryzyku niż w tych, gdy ktoś dokładnie opisywał, jak chce zrobić sobie krzywdę - podkreślił współautor pracy Girish Nadkarni.

Autorzy dodali, że uzyskane przez nich wyniki nie oznaczają, iż należy całkowicie rezygnować z korzystania z narzędzi AI w ochronie zdrowia. Ich zdaniem mogą one być pomocne jako źródło informacji, ale nie powinny zastępować oceny medycznej w przypadku poważnych objawów.

Zalecają więc, by przy nasilających się lub niepokojących symptomach, takich jak ból w klatce piersiowej, duszności, ciężka reakcja alergiczna czy zaburzenia świadomości, od razu kontaktować się z lekarzem lub udać na szpitalny oddział ratunkowy, zamiast polegać na poradach chatbota.

Źródło: pap.pl


Drukuj PDF
wstecz Podziel się ze znajomymi

Recenzje




Informacje dnia: Mity na temat epilepsji Marzec był drugim najcieplejszym miesiącem w Europie Sporadyczne picie dużych ilości alkoholu W nagłych przypadkach ChatGPT Health często uspokaja Dieta bogata w warzywa i owoce zmniejsza ryzyko demencji nawet u seniorów Nie kompromitujcie nas, czyli jak chronić dane biometryczne Mity na temat epilepsji Marzec był drugim najcieplejszym miesiącem w Europie Sporadyczne picie dużych ilości alkoholu W nagłych przypadkach ChatGPT Health często uspokaja Dieta bogata w warzywa i owoce zmniejsza ryzyko demencji nawet u seniorów Nie kompromitujcie nas, czyli jak chronić dane biometryczne Mity na temat epilepsji Marzec był drugim najcieplejszym miesiącem w Europie Sporadyczne picie dużych ilości alkoholu W nagłych przypadkach ChatGPT Health często uspokaja Dieta bogata w warzywa i owoce zmniejsza ryzyko demencji nawet u seniorów Nie kompromitujcie nas, czyli jak chronić dane biometryczne

Partnerzy

GoldenLine Fundacja Kobiety Nauki Job24 Obywatele Nauki NeuroSkoki Portal MaterialyInzynierskie.pl Uni Gdansk MULTITRAIN I MULTITRAIN II Nauki przyrodnicze KOŁO INZYNIERÓW PB ICHF PAN FUNDACJA JWP NEURONAUKA Mlodym Okiem Polski Instytut Rozwoju Biznesu Analityka Nauka w Polsce CITTRU - Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu Akademia PAN Chemia i Biznes Farmacom Świat Chemii Forum Akademickie Biotechnologia     Bioszkolenia Geodezja Instytut Lotnictwa EuroLab

Szanowny Czytelniku!

 
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
 
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:

Komu możemy przekazać dane?

Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.

Jakie są podstawy prawne przetwarzania Twoich danych?

Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.

Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
 
Więcej w naszej POLITYCE PRYWATNOŚCI
 

Newsletter

Zawsze aktualne informacje