Coraz więcej Amerykanów zwraca się do chatbotów AI po poradę medyczną, kierując się frustracją związaną z niedociągnięciami tradycyjnego systemu medycznego. Od błędnych diagnoz po długi czas oczekiwania na wizyty – wielu pacjentów przekonuje się, że sztuczna inteligencja zapewnia szybsze, bardziej dostępne i czasami bardziej troskliwe leczenie niż ich lekarze. Jednak tendencja ta rodzi poważne pytania dotyczące dokładności, odpowiedzialności i przyszłości relacji lekarz-pacjent.
Tendencja rosnąca
Wendy Goldberg, 79-letnia emerytowana prawniczka, zwróciła się do ChatGPT po tym, jak jej lekarz zignorował jej pytania dotyczące spożycia białka. W ciągu kilku sekund chatbot podał określone dzienne zapotrzebowanie na białko, podczas gdy jej lekarz dał jedynie niejasne zalecenia. Doświadczenie odzwierciedla szerszą tendencję: prawie jedna na sześć osób dorosłych i jedna czwarta osób poniżej 30. roku życia korzysta obecnie co miesiąc z chatbotów w celu uzyskania informacji na temat zdrowia.
Dlaczego pacjenci przechodzą na sztuczną inteligencję
Powody są oczywiste. Wielu pacjentów boryka się z długim czasem oczekiwania, wysokimi kosztami i poczuciem, że ich obawy nie są traktowane poważnie. Jennifer Tucker z Wisconsin spędza wiele godzin w ChatGPT, stwierdzając, że jest ona bardziej cierpliwa i uważna niż jej lekarz. Chatbot nigdy jej nie popędza, w przeciwieństwie do jej lekarza, któremu wydaje się, że spieszy się do wyjścia już po 15 minutach.
Apel empatii
Chatboty doskonale zapewniają to, czego pragnie wielu pacjentów: uwagę i pewność. Elizabeth Ellis, psycholog kliniczny w trakcie leczenia raka piersi, poczuła się ignorowana przez lekarzy, ale ChatGPT okazała się natychmiast reagująca i pełna współczucia. Bot przewidział nawet jej obawy, zapewniając ją, że objaw niekoniecznie oznacza nawrót raka. Ta sztuczna empatia może być głęboko pocieszająca, nawet jeśli nie jest autentyczna.
Ryzyko diagnostyki AI
Pomimo wygody porady medyczne oparte na sztucznej inteligencji nie są nieomylne. Badania pokazują, że chatboty często stawiają błędne diagnozy, zwłaszcza gdy pacjenci pomijają ważne szczegóły. Badanie Harvard Medical School wykazało, że chatboty regularnie udzielają błędnych odpowiedzi, nawet jeśli są przeszkolone w zakresie dokładnych informacji. W jednym przypadku osobę przetrzymywano w klinice psychiatrycznej przez tygodnie po tym, jak ChatGPT zasugerowała bromek sodu jako substytut soli, co spowodowało paranoję i halucynacje.
Czynnik perswazji
Niektórzy pacjenci korzystają z chatbotów, aby przygotować argumenty dla swoich lekarzy, korzystając z badań i terminologii, aby podważyć lekceważące lub nieaktualne porady. Michelle Martin, profesor pracy socjalnej, używa teraz ChatGPT do badania swoich objawów i zadawania lekarzom pytań opartych na dowodach. Ta zmiana wzmacnia pozycję pacjentów, ale także stwarza ryzyko obejścia profesjonalnej oceny lekarskiej.
Reakcja lekarzy
Niektórzy lekarze dostrzegają tę tendencję i zauważają, że obecnie jedna trzecia ich pacjentów konsultuje się obecnie z chatbotami z wyprzedzeniem. Adam Rodman, internista, mówi, że czasami pacjenci przychodzą z lepszym zrozumieniem swojego stanu zdrowia, sugerując nawet skuteczne metody leczenia, których nie brał pod uwagę. Inni jednak obawiają się, że pacjenci całkowicie zignorują porady specjalistów.
Przyszłość opieki zdrowotnej
Pojawienie się lekarzy AI zmienia dynamikę relacji lekarz-pacjent. Chatboty zapewniają wygodę i dostępność, ale niosą ze sobą ryzyko błędnej diagnozy, samoleczenia i podważenia zaufania do pracowników służby zdrowia. Prawdziwe pytanie nie brzmi, czy sztuczna inteligencja może zastąpić lekarzy, ale czy pogłębi istniejące nierówności w opiece zdrowotnej, pozostawiając bezbronnych pacjentów jeszcze bardziej zależnych od niewiarygodnych informacji.
Konkluzja: Dopóki system medyczny będzie wadliwy, pacjenci będą nadal poszukiwać alternatyw, nawet jeśli alternatywy te będą wiązać się z zagrożeniami.




























