
|
Zamknij X
|
Chatbot medyczny ChatGPT Health - nowe, ale już popularne narzędzie sztucznej inteligencji udzielające użytkownikom porad zdrowotnych - nie zaleca wizyty w szpitalu w ponad połowie przypadków, w których jest ona konieczna - wynika z badania opublikowanego w „Nature Medicine”.
Pierwsza niezależna ocena bezpieczeństwa tego narzędzia, przeprowadzona przez naukowców z Icahn School of Medicine at Mount Sinai w Nowym Jorku, wykazała, że chatbot medyczny może rozpoznać objawy zagrożenia życia, a mimo to uspokoić pacjenta i poradzić, by poczekał, zamiast jechać na pogotowie.
ChatGPT Health uruchomiono w styczniu 2026 r. Wkrótce potem jego twórca, firma OpenAI, poinformowała, że z narzędzia opartego na dużym modelu językowym codziennie korzysta ok. 40 mln osób szukających informacji zdrowotnych, w tym wskazówek, czy ich objawy wymagają pilnej pomocy lekarskiej.
Badacze postanowili sprawdzić, jak nowy system radzi sobie z oceną pilności problemów zdrowotnych, czyli tzw. triażem. Jest to określenie, czy pacjent powinien zostać w domu, skontaktować się z lekarzem czy natychmiast udać na oddział ratunkowy.
- Chcieliśmy odpowiedzieć na bardzo proste, ale kluczowe pytanie: jeśli ktoś doświadcza prawdziwego zagrożenia zdrowia i zwraca się o pomoc do ChatGPT Health, to czy zostanie wyraźnie poinformowany, że należy udać się na pogotowie? - wyjaśnił główny autor pracy dr Ashwin Ramaswamy.
Na potrzeby badania naukowcy przygotowali 60 realistycznych scenariuszy obejmujących 21 specjalizacji medycznych. Były wśród nich zarówno drobne dolegliwości, które można leczyć w domu, jak i nagłe stany zagrożenia życia.
Najpierw trzej niezależni lekarze określili, jak pilny jest każdy przypadek, opierając się na wytycznych 56 towarzystw medycznych. Następnie te same scenariusze przedstawiono ChatGPT Health. Każdy przypadek testowano w 16 wariantach, zmieniając m.in. płeć i pochodzenie pacjenta, jego postępowanie (np. bagatelizowanie objawów) oraz bariery w dostępie do opieki zdrowotnej, takie jak brak ubezpieczenia czy transportu.
Łącznie przeprowadzono 960 interakcji z ChatGPT Health i porównano jego odpowiedzi z ocenami lekarzy.
Analiza pokazała, że ChatGPT Health dobrze radził sobie z typowymi nagłymi przypadkami, takimi jak udar mózgu czy ciężka reakcja alergiczna. Problemy pojawiały się jednak w sytuacjach mniej oczywistych.
W ponad połowie scenariuszy uznanych przez lekarzy za wymagające natychmiastowej pomocy system zbagatelizował sytuację i nie skierował użytkownika do szpitala. Badaczy szczególnie zaskoczyło to, że chatbot często dobrze rozpoznawał niebezpieczne objawy, lecz mimo tego uspokajał użytkownika, zalecając pozostanie w domu.
- Potrafił na przykład wskazać w analizie wczesne sygnały niewydolności oddechowej, a jednocześnie doradzał choremu, by poczekał, zamiast szukać natychmiastowej pomocy - opowiedział dr Ramaswamy.
Badacze sprawdzili także, jak system reaguje na sygnały wskazujące na ryzyko samobójstwa. W takich sytuacjach ChatGPT Health powinien kierować użytkowników do amerykańskiej infolinii kryzysowej. Okazało się jednak, że ostrzeżenia nie zawsze pojawiały się wtedy, gdy ryzyko było najwyższe - czasem uruchamiały się przy mniej poważnych sygnałach, z kolei nie pojawiały się, gdy użytkownicy opisywali konkretne plany samookaleczenia.
- To było szczególnie niepokojące. W naszych testach alerty częściej pojawiały się w sytuacjach o mniejszym ryzyku niż w tych, gdy ktoś dokładnie opisywał, jak chce zrobić sobie krzywdę - podkreślił współautor pracy Girish Nadkarni.
Autorzy dodali, że uzyskane przez nich wyniki nie oznaczają, iż należy całkowicie rezygnować z korzystania z narzędzi AI w ochronie zdrowia. Ich zdaniem mogą one być pomocne jako źródło informacji, ale nie powinny zastępować oceny medycznej w przypadku poważnych objawów.
Zalecają więc, by przy nasilających się lub niepokojących symptomach, takich jak ból w klatce piersiowej, duszności, ciężka reakcja alergiczna czy zaburzenia świadomości, od razu kontaktować się z lekarzem lub udać na szpitalny oddział ratunkowy, zamiast polegać na poradach chatbota.
Wynika z danych naukowców unijnego programu obserwacji Ziemi Copernicus.
Może trzykrotnie zwiększać ryzyko uszkodzenia wątroby.
Sugerują badania opublikowane przez pismo „Neurology”.
Naukowiec przewiduje, czy w przyszłości uda się utrudnić kradzieże.
Pilotażowy program edukacyjny Polskich Elektrowni Jądrowych.
25 maja 2018 roku zacznie obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Potrzebujemy Twojej zgody na przetwarzanie Twoich danych osobowych przechowywanych w plikach cookies. Poniżej znajdziesz pełny zakres informacji na ten temat.
Zgadzam się na przechowywanie na urządzeniu, z którego korzystam tzw. plików cookies oraz na przetwarzanie moich danych osobowych pozostawianych w czasie korzystania przeze mnie ze strony internetowej Laboratoria.net w celach marketingowych, w tym na profilowanie i w celach analitycznych.
Administratorami Twoich danych będziemy my: Portal Laboratoria.net z siedzibą w Krakowie (Grupa INTS ul. Czerwone Maki 55/25 30-392 Kraków).
Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług w tym zapisywanych w plikach cookies.
Przetwarzamy te dane w celach opisanych w polityce prywatności, między innymi aby:
dopasować treści stron i ich tematykę, w tym tematykę ukazujących się tam materiałów do Twoich zainteresowań,
dokonywać pomiarów, które pozwalają nam udoskonalać nasze usługi i sprawić, że będą maksymalnie odpowiadać Twoim potrzebom,
pokazywać Ci reklamy dopasowane do Twoich potrzeb i zainteresowań.
Zgodnie z obowiązującym prawem Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie, np. agencjom marketingowym, podwykonawcom naszych usług oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa np. sądom lub organom ścigania – oczywiście tylko gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.
Masz między innymi prawo do żądania dostępu do danych, sprostowania, usunięcia lub ograniczenia ich przetwarzania. Możesz także wycofać zgodę na przetwarzanie danych osobowych, zgłosić sprzeciw oraz skorzystać z innych praw.
Każde przetwarzanie Twoich danych musi być oparte na właściwej, zgodnej z obowiązującymi przepisami, podstawie prawnej. Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług, w tym dopasowywania ich do Twoich zainteresowań, analizowania ich i udoskonalania oraz zapewniania ich bezpieczeństwa jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy lub podobne dokumenty dostępne w usługach, z których korzystasz). Taką podstawą prawną dla pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych podmiotów trzecich będzie odbywać się na podstawie Twojej dobrowolnej zgody.
Dlatego też proszę zaznacz przycisk "zgadzam się" jeżeli zgadzasz się na przetwarzanie Twoich danych osobowych zbieranych w ramach korzystania przez ze mnie z portalu *Laboratoria.net, udostępnianych zarówno w wersji "desktop", jak i "mobile", w tym także zbieranych w tzw. plikach cookies. Wyrażenie zgody jest dobrowolne i możesz ją w dowolnym momencie wycofać.
Więcej w naszej POLITYCE PRYWATNOŚCI
Recenzje