Підйом лікарів зі штучним інтелектом: чому пацієнти звертаються до чат-ботів за медичною порадою

1

Все більше американців звертаються до чат-ботів штучного інтелекту за медичною порадою через розчарування недоліками традиційної медичної системи. Від неправильних діагнозів до тривалого часу очікування на прийом, багато пацієнтів виявляють, що штучний інтелект пропонує швидше, доступніше та, часом, більш дбайливе лікування, ніж їхні лікарі. Але ця тенденція викликає серйозні питання щодо точності, відповідальності та майбутнього відносин між лікарем і пацієнтом.

Тенденція до зростання

Венді Голдберг, 79-річний адвокат на пенсії, звернулася до ChatGPT після того, як її лікар проігнорував її запитання про споживання білка. За кілька секунд чат-бот надав конкретну добову потребу в білку, тоді як її лікар дав лише розпливчасті рекомендації. Досвід відображає ширшу тенденцію: майже кожен шостий дорослий і чверть людей до 30 років щомісяця використовують чат-боти для отримання інформації про здоров’я.

Чому пацієнти переходять на ШІ

Причини очевидні. Багато пацієнтів стикаються з тривалим часом очікування, високими витратами та відчуттям, що їхні проблеми не сприймаються серйозно. Дженніфер Такер із Вісконсіна проводить години з ChatGPT, знаходячи його більш терплячим і уважним, ніж її лікар. Чат-бот ніколи не квапить її, на відміну від її лікаря, який, здається, поспішає піти лише через 15 хвилин.

Звернення до співчуття

Чат-боти чудово забезпечують те, чого жадають багато пацієнтів: увагу та заспокоєння. Елізабет Елліс, клінічний психолог, яка проходила курс лікування від раку молочної залози, відчула, що її лікарі ігнорують, але виявила, що ChatGPT негайно реагує та співчутливо. Бот навіть передбачив її страхи, запевнивши, що симптом не обов’язково означає, що рак повернувся. Це штучне співчуття може бути дуже втішним, навіть якщо воно несправжнє.

Ризики діагностики AI

Незважаючи на зручність, медичні поради на основі ШІ далеко не безпомилкові. Дослідження показують, що чат-боти часто ставлять неправильні діагнози, особливо коли пацієнти пропускають важливі деталі. Дослідження Гарвардської медичної школи показало, що чат-боти регулярно дають неправильні відповіді, навіть якщо їх навчають точної інформації. В одному випадку людину тримали в психіатричній клініці тижнями після того, як ChatGPT запропонував бромід натрію як замінник солі, що викликало параною та галюцинації.

Фактор переконання

Деякі пацієнти використовують чат-боти, щоб підготувати аргументи для своїх лікарів, озброївшись дослідженнями та термінологією, щоб оскаржити зневажливі або застарілі поради. Мішель Мартін, професор соціальної роботи, тепер використовує ChatGPT, щоб досліджувати свої симптоми та поставити лікарям питання, що ґрунтуються на доказах. Ця зміна розширює можливості пацієнтів, але також створює ризик обійти професійне медичне судження.

Реакція лікарів

Деякі лікарі визнають цю тенденцію, зазначаючи, що третина їхніх пацієнтів тепер консультується в чат-ботах завчасно. Адам Родман, терапевт, каже, що пацієнти іноді приходять із більш чітким розумінням свого стану, навіть пропонуючи життєздатні методи лікування, які він не розглядав. Проте інші побоюються, що пацієнти повністю ігноруватимуть професійні поради.

Майбутнє охорони здоров’я

Поява лікарів зі штучним інтелектом змінює динаміку відносин між лікарем і пацієнтом. Хоча чат-боти пропонують зручність і доступність, вони також несуть ризик неправильного діагнозу, самолікування та підриву довіри до медичних працівників. Справжнє питання полягає не в тому, чи зможе ШІ замінити лікарів, а в тому, чи посилить він існуючу нерівність у сфері охорони здоров’я, зробивши вразливих пацієнтів ще більш залежними від недостовірної інформації.

Підсумок: доки медична система залишається недосконалою, пацієнти продовжуватимуть шукати альтернативи, навіть якщо ці альтернативи пов’язані з власною небезпекою.